OpenAI与美国国防部达成使用其AI模型协议 Altman称纳入“技术保障”条款
OpenAI首席执行官Sam Altman表示,与美国国防部的新协议在禁止国内大规模监控和确保武力使用由人类负责等方面设有明确约束,并将相关原则写入法律、政策及合同条款。
谁拥有我们的数字遗产?欧洲拟推模型法律应对死后数据访问与隐私难题
从社交媒体账户到“哀悼机器人”等AI再现,个人去世后留下的数字遗产正引发访问权、继承权与隐私保护的法律争议。伯明翰大学法学副教授埃迪娜·哈宾贾博士正参与欧洲法律研究所项目,推动制定统一的数字继承模型法律。
走访中国多地机器人企业:人形机器人竞赛加速推进,数据与落地仍是关键
记者走访上海、北京、杭州、宁波、合肥等地11家机器人相关企业,从汽车工厂自动化到人形机器人训练与商业化,观察中国机器人产业在政策、供应链与应用场景推动下的快速进展,以及数据稀缺、可靠性与就业影响等现实挑战。
共和党参议员公布涵盖版权保护与深度伪造限制的全面人工智能立法草案
田纳西州共和党参议员玛莎·布莱克本提出了一项立法框架草案,聚焦好莱坞与人工智能领域的热点问题,包括训练模型中版权作品的使用及未经授权的名人深度伪造现象。
数万亿美元涌入:全球科技巨头掀起人工智能基础设施竞赛
英伟达预计本十年末全球人工智能基础设施支出将达3万亿至4万亿美元,微软、OpenAI、Oracle、Meta等公司正通过巨额云服务合同和数据中心项目重塑计算版图。
Anthropic聊天机器人Claude在美区App Store跃居第二
在与五角大楼的谈判引发关注后,Anthropic旗下聊天机器人Claude在美国苹果App Store免费应用排行榜中升至第二位,仅次于OpenAI的ChatGPT。
研究:ChatGPT在科学真假判断中仅获“D”等表现
华盛顿州立大学团队用数百条科学假设测试ChatGPT的真假判断能力,结果显示其准确率虽高于随机猜测,但仍远不足以被视为可靠工具,且在同一问题上的回答前后不一。
一种更有效识别过度自信大型语言模型的方法
这项新的不确定性度量方法能够识别模型幻觉,帮助用户判断是否信任AI模型。
Mozilla推行可控式人工智能战略 重申“反叛联盟”式开放互联网立场
在大型科技公司加速将人工智能深度嵌入产品之际,Mozilla推出可由用户自主开关的AI功能,并通过资金投入与宣传活动,试图在“可信技术”与行业增长冲动之间寻找平衡。
从稳定币到生物技术:YZi Labs称其投资逻辑聚焦“尚未发生”的创新
YZi Labs表示,其投资布局覆盖人工智能、生物技术与Web3等领域,核心逻辑是支持创始团队去构建“尚不存在的事物”。 YZi Labs在阐述相关策略时强调,相比追逐市场热点,其更关注真实的用户需求以及产品与市场的契合度,并将其作为评估项目的重要依据。 在加密领域,张女士指出,稳定币被其视为加密货币迄今“第一个真正的主流应用”。不过,她同时表示,稳定币要进一步发展仍需要更多基础设施建设作为支撑。
在监管真空中自陷困局:Anthropic与AI安全承诺的反噬
在被美国国防部列入黑名单、失去高额合同后,Anthropic的处境被部分学者视为整个人工智能行业长期抵制强制监管的结果。
专家建议如何负责任使用AI工具:可用于头脑风暴与信息整理,但不应外包判断
随着ChatGPT等生成式AI工具使用人群扩大,专家建议将其作为创意与组织辅助工具,并强调核查信息来源、避免过度依赖与泄露敏感信息。
