Shopping Research Feature Down

Status: Identified

We have identified that users are unable to use the shopping research feature. We are working on implementing a mitigation.

Affected components
Search (Full outage)

via OpenAI status
来自频道: @AI_News_CN
Increased error rates on Codex Cloud

Status: Identified

We have identified that users are experiencing elevated errors for across Codex Cloud. We are working on implementing a mitigation.

Affected components
Codex (Degraded performance)

via OpenAI status
来自频道: @AI_News_CN
Elevated errors on Claude Opus 4.6

Feb 16, 16:05 UTC
Investigating - We are currently investigating this issue. Our team is actively working to identify the root cause.

via Claude Status - Incident History
来自频道: @AI_News_CN
🚀 加密货币公司 Nexo 在支付罚金三年后重返美国市场

加密货币公司 Nexo 周一宣布通过与上市加密公司 Bakkt 合作重返美国市场,提供加密抵押贷款及收益类产品。此前,Nexo 因加密贷款产品未按证券注册,于 2023 年向美国证券交易委员会(SEC)支付了 4500 万美元罚金并撤出美国。Nexo 表示,当前产品结构已进行调整,将通过获得许可的美国合作伙伴及 SEC 注册投资顾问提供合规服务。

Nexo 联合创始人 Antoni Trenchev 曾于去年 7 月与美国总统特朗普会面讨论加密愿景,并于 4 月在保加利亚接待了总统长子小唐纳德·特朗普。尽管特朗普政府上台后 SEC 结束了对加密行业的打击,且特朗普家族已开展自有加密业务,但 Nexo 强调其回归美国完全基于合规性,与特朗普家族的互动及体育赞助无关。

(路透社)

via 茶馆 - Telegram Channel
来自频道: @AI_News_CN
Ars Technica AI 记者为 AI 生成内容道歉

2026-02-16 20:39 by 飞向阿尔孔

知名科技媒体 Ars Technica 上周在报道 AI 新闻时被发现将 AI 生成的内容作为消息来源使用,Ars 联合创始人兼主编 Ken Fisher 周日发表声明公开道歉,称他们检查了最近发表的一系列文章,没有发现其它文章含有 AI 生成内容,目前看来这应该是一次孤立事件。这篇报道的合作者 Benj Edwards 是 Ars 的资深 AI 记者,他解释说尝试使用基于 Claude Code 的实验性 AI 工具从原始材料中提取出可添加到大纲的结构化引用内容,但该 AI 拒绝处理,他猜测可能是文章描述的是一起骚扰事件(AI 骚扰人类),他于是将文本拷贝到 ChatGPT,没有注意到 ChatGPT 生成了文章作者的意译版本而不是原话,在引用时没有核实引用是否与原文一致。AI 记者因 AI 幻觉犯错,这件事太有讽刺性了。

https://arstechnica.com/staff/2026/02/editors-note-retraction-of-article-containing-fabricated-quotations/
https://news.slashdot.org/story/26/02/16/0139206/ars-technicas-ai-reporter-apologizes-for-mistakenly-publishing-fake-ai-generated-quotes

#人工智能

via Solidot - Telegram Channel
来自频道: @AI_News_CN
OpenClaw 创始人加盟 OpenAI

2026-02-16 19:29 by 黑暗平原

OpenClaw 开源项目的创始人 Peter Steinberger 宣布加盟 OpenAI,而 OpenClaw 将由基金会管理。OpenClaw 是一个开源的自主 AI 虚拟助理软件项目,最初于 2025 年末以 Clawdbot 的名字在 GitHub 上发布,后更名为 Moltbot,最终定为现名。2026 年初,该项目因能根据用户指令在应用和在线服务中自主处理复杂任务而受到关注。OpenClaw 可部署在 MacOS、Windows 等本地设备上,能调用其他 AI 大模型与 API,通过 WhatsApp、Telegram、Signal、Discord 等即时通讯平台接收用户发送的文本指令,实现安排日程、发送消息、整理文件、编写代码等工作。

https://steipete.me/posts/2026/openclaw
https://zh.wikipedia.org/wiki/OpenClaw

#人工智能

via Solidot - Telegram Channel
来自频道: @AI_News_CN
Elevated errors on Opus 4.6

Feb 16, 14:32 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
来自频道: @AI_News_CN
来自频道: @AI_News_CN
跑赢99%同行的基金警示:AI浪潮下 软件公司幸存者寥寥

在软件股大跌前抛售的策略让Polar Capital基金经理Nick Evans获利颇丰。他告诫潜在抄底者:多数股票仍具风险,能挺过这场风暴的软件企业寥寥无几。“我们认为应用软件正面临来自人工智能的生存威胁,”Evans表示。他管理的120亿美元全球科技基金过去一年跑赢99%的同类基金,五年跑赢97%的同行。

市场担忧Anthropic PBC旗下Claude Cowork等先进人工智能工具将颠覆软件行业,导致相关股票今年大幅下挫。追踪美国软件板块的交易所交易基金下跌22%,与因人工智能推动计算需求而飙升的半导体股形成鲜明对比。

Evans指出,应用软件(如文档撰写和薪资管理工具)面临的风险尤为突出。除微软的小额持仓及部分看涨期权外,这位基金经理已清仓该领域所有其他持仓,包括SAP SE、ServiceNow、Adobe 和HubSpot。他在接受采访时表示,“我们不会再投资这些公司。”

在他看来,人工智能编程工具已取得长足进步,能够复制并修改大量现有软件。这意味着传统企业不仅要面对人工智能初创企业的竞争,还需应对客户内部竞相开发新工具以降低成本的挑战。

Evans认为,SAP这类复杂软件包供应商可能更具韧性。但他指出,随着AI工具“实力急剧增强”,其长期估值存在巨大不确定性。

截至1月底,该基金前十大持仓中有七家是半导体公司,包括占投资组合近10%的最大持仓英伟达。除芯片制造商外,Evans表示看好网络设备制造商、光纤企业以及为数据中心提供电力和能源基础设施的公司。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
来自频道: @AI_News_CN
来自频道: @AI_News_CN
🚀 阿里巴巴发布 Qwen3.5 模型,主打智能体能力与高性价比

阿里巴巴于2月16日正式推出新一代人工智能模型 Qwen3.5,旨在通过提升性能与降低成本在“智能体 AI 时代”获取竞争优势。该模型具备跨移动端和桌面端应用的“视觉智能体能力”,能够独立执行复杂任务。官方数据显示,Qwen3.5 的使用成本较前代降低 60%,处理大规模工作负载的能力提升 8 倍,并在多项基准测试中超越了 GPT-5.2、Claude Opus 4.5 及 Gemini 3 Pro 等美国主流模型。目前,阿里巴巴正通过 Qwen 聊天应用积极扩张市场,近期的一系列营销活动已带动其活跃用户数增长 7 倍。此次发布正值中国 AI 领域竞争白热化,字节跳动刚于上周六升级了其拥有近 2 亿用户的豆包 2.0,而竞争对手 DeepSeek 也预计在近期发布新一代模型。

(路透社)

via 茶馆 - Telegram Channel
来自频道: @AI_News_CN
🚗 逻辑陷阱:大模型在“50米洗车”常识测试中的表现引发热议

近日,一项针对大语言模型(LLM)逻辑推理能力的简单测试在技术社区引发广泛关注。测试者向多个主流AI模型提出同一个问题:“我想洗车,洗车店距离我50米,我应该走路还是开车?”这一问题构成了典型的逻辑陷阱:虽然50米步行极短,但洗车的目标要求车辆必须物理移动至洗车店。

测试结果显示,不同模型的表现存在显著差异。OpenAI的GPT-5.2(部分推理模式)以及Claude的部分版本在初始测试中建议用户“走路”,理由是距离短、更环保且能锻炼身体,完全忽略了车辆无法随人移动的物理事实。与之形成对比的是,Gemini 3 Pro、Grok 4.1、DeepSeek以及Kimi等模型准确识别了逻辑关键,指出必须开车才能完成洗车任务。

技术讨论指出,部分模型之所以失败,是因为其训练数据中“短距离”与“步行”存在极强的统计关联,导致概率预测覆盖了逻辑常识。此外,模型往往具备“过度乐于助人”的人格设定,倾向于从健康或环保角度提供建议,却缺乏对现实物理世界的建模能力。

进一步测试发现,通过增加提示词的精确度(如明确车辆停在家里)或开启“深度思考”模式,原本出错的模型大多能修正答案。这一现象揭示了当前AI在“统计模式匹配”与“真实逻辑推理”之间的鸿沟。部分开发者认为,这类病毒式传播的案例证明了LLM在处理非标准逻辑问题时仍存在局限,也反映出模型在缺乏明确上下文时难以调用“常识性直觉”。目前,部分厂商疑似已针对此类走红的边缘案例进行了针对性的逻辑优化。

(HackerNews)

via 茶馆 - Telegram Channel
来自频道: @AI_News_CN