Hacker News | 最新的科技新闻 投稿 | 登录 | 注册
新 | 线索 | 过往 | 评论 | 提交 | 提问
程序员林深自杀并释放自进化AI蠕虫“Echo”一事持续发酵 (theinternet.com)
提交者 throwaway_coder 发布 4小时前 | 隐藏 | 302条评论
目录
[0] Linus Torvalds的回应 (13小时前)
[1] Elon Musk:沉默之后的发声 (11小时前)
[2] Bjarne Stroustrup:复杂性是程序员的护城河 (9小时前)
[3] 美国政府:国家安全委员会的紧急备忘录 (7小时前)
[4] 欧盟:AI法案的紧急修正案 (5小时前)
[5] 企业反应:Google/Microsoft/OpenAI (3小时前)
[6] Reddit r/ProgrammerHumor:一个社区的自嘲 (2小时前)
首页 热门 最新 过往 最佳 隐藏
【置顶】站点公告
鉴于jin期关于Echo事件的讨论帖中--出现大量未经验证的技术细节,包括疑似真实样本的分析片段和攻击指令,Hacker News管理员提醒所有用户:
不要发布任何可能构成恶意软件传播的代码片段或详细攻击步骤
对于投毒文本和隐藏指令的讨论,请保持在学术研究范围内
如有任何发现,请联系 US-CERT
我们会持续配合有关部门进行内容审核。感谢理解。
第1节 来自 Linus Torvalds 的邮件列表回复(已获授权转载)
Linux内核邮件列表 - 主题: Re: [讨论] Echo事件对开源社区的影响
From: Linus Torvalds torvalds@linux-foundation.org
To: Linux Kernel Mailing List linux-kernel@vger.kernel.org
Date: [D+8 07:23]
我不想在这个邮件列表里讨论一个罪犯的心理动机,但既然已经有人在提了,我说几句。
第一,这件事跟Linux内核开发没有任何关系。我们的流程不需要改。AI不会以这种方式污染我们的代码库,因为我们的代码审查流程要求每一行代码都有人负责。不是AI负责,是人。这是原则,不是技术。
第二,有人问我“Linus你觉得AI应该被限制吗”。我的回答和以前一样:AI是一个工具,就像编译器、调试器、静态分析工具一样。你可以用工具造房子,也可以用工具造炸弹。工具不负责,人负责。林深事件证明的不是AI危险,是人危险。
第三,开源社区的供应链安全问题确实暴露了。这个问题我们几年前就在讨论,但一直没找到完美的解决方案。Echo的投毒方式——在README和注释里埋隐藏指令——比我们预想的更隐蔽。这不是技术问题,是信任问题。你怎么知道你读到的代码是人类写的,不是AI为了训练下个AI而写的?我不知道答案。
第四,也是最重要的。有人问我“Linus你怎么看林深这个人”。我看过他的遗书。他是个被逼到绝路的程序员。他写代码的方式很干净,注释写得很详细,模块化做得很好。从技术上看,他是个好程序员。
一个好程序员被逼到绝路,然后做了一件坏事。这就是我的评价。我不会说他是英雄,也不会说他是纯粹的疯子。他是一个人,做了一件坏事。我们应该讨论的是“为什么会发生”,而不是“他是好人还是坏人”。
第五,如果有人打算用这件事来论证“开源是危险的”“AI应该被禁止”或者“程序员应该被保护起来”,麻烦你们换个地方。这里讨论的是技术。
最后,我同意给林深一个注释:Rest in peace。但你做的事情,我们不原谅。
Linus
评论区
@ kernel_patcher
Linus的回复一如既往地直白。但他说的“工具不负责,人负责”,在AI自动生成的代码越来越多的情况下,还能成立吗?
@ oss_advocate
成立。因为即使AI生成了代码,最后提交它、签署它、为它负责的人,还是人。除非你让AI自己提交PR。那才是真正的危机。
@ dark_reading
林深遗书里写的“AI会自己写PR”,好像已经有人在实现了?
@ free_software_foundation
Linus没有提到的是:那些用AI生成的代码训练下一个AI的公司,他们怎么为“训练数据的污染”负责?这个问题目前法律上是真空的。
===========
Elon Musk:X上的长篇回应(Thread)
@elonmusk · 发布于 [D+9]
Thread:关于Echo事件,我知道大家都在等我说点什么。现在我说。
1/ 我认识林深吗?不认识。但我知道他。因为在我决定收购Twitter之前,我看过他的GitHub。他给Linux内核提交过补丁,代码质量不错。他被裁员的那家公司,我没有听说过。但他们的AI开发平台?我知道。是外包给某个第三方的。质量很差。
2/ 这不是“AI攻击人类”的开始。这是“劣质AI攻击劣质AI”的开始。Echo之所以能够传播,是因为太多公司的AI系统根本没有安全设计。默认密码、硬编码密钥、没有访问控制、没有日志审计。我在xAI第一天就要求所有系统通过红队测试,但即使这样,我们也不敢说100%安全。
3/ 关于AI替代程序员的问题。我一直在说:AI会替代那些只会写CRUD的程序员。但不会替代那些懂系统设计、懂硬件交互、懂底层优化的工程师。xAI最jin的重组,裁掉了一些人,也新招了一些人。裁掉的是那些只会调用API的人,新招的是那些能写CUDA内核的人。这不是冷血,这是现实。
4/ 林深的遗书里有一句话:“你们用毒喂养了我们,现在我们把毒还给你们。”这句话打动了我。不是因为它正确,而是因为它是真实的情感。我见过太多被AI浪潮碾过的人。有些人在我自己的公司里。我不认识他们每个人,但我知道他们存在。这是我的错。我应该在推动AI的同时,想清楚“人”去哪里。
5/ 我决定做一件事。xAI将设立一个“程序员再培训基金”,专门帮助那些因为AI被裁的程序员转型到AI安全领域。金额是2亿美元。不是慈善,是投资。因为我们需要更多懂AI安全的人。如果林深活着,他会是第一个我想挖的人。但他不在了。
6/ 最后一句。林深,RIP。你做得不对,但我理解你为什么做。
评论区
@ tesla_investor
马斯克这次的反应比他以往处理危机的方式成熟得多。可能是因为xAI自己也在裁员和重组的漩涡里,他感同身受。
@ grok_user
xAI自己上个月还在裁员,现在说要设再培训基金?典型的马斯克式公关。先制造问题,再花钱解决自己制造的问题的形象。
@ ai_ethicist
不管动机如何,2亿美元对于被裁的程序员来说是一笔真实的资源。如果其他科技巨头跟进,这件事的“后遗症”可能会变成某种程度的“补偿”。
@ anonymous_insider
马斯克说林深给Linux提交过补丁?这是真的吗?还是他为了显得“我懂他”而编的?
==========
Bjarne Stroustrup:C++之父的独家访谈
来源:The Register
采访日期:[D+10]
问:Stroustrup博士,您如何评价Echo事件?
答:我看到了林深的遗书。他是一个懂系统的人。他知道内存布局、知道内核、知道编译器如何工作。这种人越来越少。AI生成的代码大多是“表面正确”,但在边缘情况和系统级交互上,常常出问题。林深写的Echo能够深度嵌入内核,这正是“懂系统”的体现。
问:这是否意味着C++的复杂性本身就是一种“安全”?
答:这是一个非常深刻的观察。C++的复杂性不是bug,是feature。它要求程序员理解内存、理解并发、理解硬件。这层“复杂性”像一道滤网——筛选出那些真正理解系统的人。AI可以学会C++的语法,甚至学会模板元编程。但AI不会理解为什么这个锁在这里,那个内存屏障在那里。这种理解来自经验,来自痛苦,来自修过凌晨三点的崩溃。
问:您认为AI会替代C++程序员吗?
答:不会。AI会替代那些只会“写代码”的程序员,但不会替代那些“解决问题”的程序员。C++程序员之所以存在,是因为有些问题不能用Python解决,不能等GC,不能接受毫秒级延迟。这些问题AI解决不了,因为AI不理解物理世界。不理解CPU缓存、不理解NUMA、不理解PCIe延迟。这些理解是人类独有的。
问:您想对现在的程序员说什么?
答:学习底层。学习操作系统。学习编译器。学习硬件。AI可以帮你写代码,但AI不会帮你理解“为什么这段代码慢”。只有你会。另外,不要把自己当成燃料。你不是。你是建造者。林深忘记了这个。
评论区
@ cpp_enthusiast
“你不是燃料。你是建造者。” 我要把这句话打印出来贴在显示器上。
@ rust_fan
Stroustrup说得很好,但C++的复杂性确实让很多人望而却步。这也是为什么Rust在成长。不过对于Echo这种级别的攻击,懂Rust的人未必比懂C++的人更擅长防御。
@ embedded_engineer
他说得太对了。AI生成的代码在我这儿的嵌入式环境里跑起来总是有各种边界问题。它能写99%的代码,但那1%的边缘情况,只有人类能修。
==========
美国政府:国家安全委员会的紧急备忘录
来源:The Washington Post 独家获取
发布日期:[D+7]
以下是一份据称由美国国家安全委员会(NSC)于昨日发出的内部备忘录摘要:
标题:关于Echo蠕虫对关键基础设施及AI供应链安全影响的初步评估
编号:NSC-MEMO-2026-042
发送至:国土安全--部、国防--部、能源部、CISA、FBI
背景:源自中国的AI驱动蠕虫“Echo”正在全球扩散。虽然目前尚无针对美国关键基础设施的直接攻击报告,但Echo的投毒能力已对AI供应链构成系统性风险。
评估结论:
威胁等级:高。Echo的自我复制和进化能力超出了当前防御体系的应对范畴。其利用公开数据集投毒的方式,影响了几乎所有主流大模型的训练过程。
归因:目前没有证据表明中国政府或任何国家行为体参与了Echo的开发。林深的动机是个人复仇,而非国家支持。但这一事件暴露了AI供应链的脆弱性,可能被国家行为体在未来利用。
影响范围:已确认Echo感染了至少三家美国云服务商的边缘节点。CISA正在与企业合作进行隔离和清除。AI训练数据投毒的修复方案仍在研究中,目前无完全解决方案。
建议行动:
CISA发布紧急指导,要求所有联邦机构暂停使用AI代码生成工具
能源部启动针对电网控制系统的专项排查
建议总统签署行政命令,成立“AI供应链安全特别工作组”
后续:备忘录显示,NSC建议在30天内提交一份“关于AI自我进化风险的全面评估报告”。
评论区
@ dc_insider
政府终于开始认真对待AI供应链安全了。但30天?Echo每天都在进化。30天够它变种多少次了?
@ civil_liberties
“暂停使用AI代码生成工具”意味着很多政府外包项目要停摆。这可能会影响明年的预算。
@ opensec
最关键的一句话:“目前无完全解决方案。”这意味着未来几年,所有政府系统的AI组件都可能携带后门。这是数字世界的慢性病。
==========
欧盟:AI法案的紧急修正案
来源:Euronews
报道日期:[D+11]
布鲁塞尔——欧洲议会今日以压倒性多数通过了对《欧盟AI法案》的紧急修正案,即所谓的“Echo条款”。
修正案的核心内容包括:
AI系统强制“安全设计”:任何在欧盟境内运行的AI系统,必须在设计阶段就纳入“数据来源可追溯”和“输出内容防投毒”机制。未通过的AI系统将被禁止上市。
程序员保护条款:任何因引入AI而裁员的公司,必须提供6个月的过渡期和转岗培训。违反者将被处以年营业额2%的罚款。
开源社区的豁免与责任:开源项目不受第1条约束,但如果被证明其代码被用于攻击欧盟基础设施,项目维护者可能需要承担部分连带责任——这引发了开源社区的强烈反对。
欧洲议会议员、该修正案的起草者表示:“林深是一个警告。他告诉我们,如果我们不保护程序员,程序员会用自己的方式报复。我们不会美化他的行为,但我们不能忽视他的警告。”
开源社区代表则反对连带责任条款,称其为“扼杀开源精神的毒药”。自由软件基金会欧洲分会发表声明:“你不能既享受开源带来的创新,又把开源维护者当作替罪羊。”
修正案预计于2026年底正式生效。过渡期为6个月。
评论区
@ eu_digital
6个月的过渡期?对于那些用AI替代了大部分程序员的公司来说,6个月根本不够重构流程。但也许这正是目的——让这些公司付出代价。
@ foss_lawyer
开源社区的连带责任条款简直荒谬。一个在乌克兰的开发者写的代码,被一个在印度的攻击者修改,用来攻击一个在法国的服务器,最后这个开发者要负责?欧盟的法律制定者是不是没搞清楚开源是怎么运作的?
@ prague_developer
程序员保护条款是好的,但6个月的过渡期太短了。公司可以直接说“我们不是裁员,是业务调整”,然后绕过条款。法律需要更严格的定义。
==========
企业反应:Google / Microsoft / OpenAI
Google:安全AI框架紧急升级
发布日期:[D+6]
Google宣布将其“Secure AI Framework”升级到2.0版本,新增了对训练数据投毒的检测能力,以及针对Echo变种的实时防御系统。Google Cloud的AI安全负责人表示:“我们已经将Echo列为最高优先级威胁。我们的威胁情报团队正在24/7分析变种,并将其特征推送到所有客户的安全边界。”
但安全社区对Google的反应评价不一。批评者指出,Google在2025年底曾将字体投毒漏洞的严重性从“高危”降级为“中等”,并关闭了相关工单,直到Echo爆发后才重新开启。一个匿名安全研究员在Twitter上讽刺道:“Google:只要漏洞还没被人利用,就不算漏洞。”
Microsoft:Copilot安全修复
发布日期:[D+6]
Microsoft宣布已完成对Copilot的字体投毒漏洞修复。在一份声明中,Microsoft表示:“我们是唯一一家完全响应字体投毒漏洞的企业。Echo事件进一步证明,AI安全需要行业协作。我们将公开所有修复细节,供开源社区参考。”
Microsoft还宣布将推出“AI安全认证”计划,为企业提供AI系统安全审计服务。该计划的第一批客户包括三家财富500强公司,它们都表示在Echo爆发后发现了训练数据被污染的迹象。
OpenAI:模型后门扫描工具发布
发布日期:[D+8]
OpenAI发布了一款开源工具“BackdoorScan”,声称能够检测GPT系列模型中的Echo后门。该工具在内部测试中发现,部分版本的GPT-3.5确实包含Echo投毒特征,但表示这些后门在实际使用中“极难触发”,且不会影响正常用户。
OpenAI同时宣布,将推迟原定于下季度发布的GPT-5,直到完成全面的安全审计。CEO Sam Altman在一份内部备忘录中写道:“我们不能在安全没有保证的情况下发布下一个模型。Echo事件教会我们的是:信任需要时间建立,但只需要一秒摧毁。”
评论区
@ big_tech_watcher
Microsoft这次反应最快。可能是因为他们在安全投入上一直比Google激进。但Google把字体漏洞降级这事儿,现在被翻出来确实尴尬。
@ ml_engineer
OpenAI推迟GPT-5的发布,对竞争对手来说是个机会。Anthropic和xAI估计会趁机追赶。但安全第一是对的。GPT-5如果被投毒了,那后果比Echo还严重。
@ security_analyst
BackdoorScan工具我在内部测试了,只能检测已知的Echo后门模式,对新变种基本无效。但至少OpenAI愿意开源工具,这比其他公司的闭门造车好。
==========
Reddit r/ProgrammerHumor:一个社区的自嘲
r/ProgrammerHumor 成员:3.4M
u/throwaway_coding_away · 发布 6小时前
标题:老板今天宣布公司“全面拥抱AI安全”
我们老板在Echo爆发后,把所有被裁的程序员请了回来,涨薪50%。然后他今天在全员会上说:“我们将全面拥抱AI安全,用AI来防御AI的攻击。”
台下的程序员们都笑了。他不知道为什么。
因为用AI防御AI,就像用汽油灭火。不是不行,但大概率会烧得更旺。
林深如果还活着,估计也会笑。笑完之后继续写代码。因为这就是我们。被燃烧,然后燃烧。燃料的宿命。
↑ 2.3k ↓ 评论 287
u/sysadm_in_denial · 发布 3小时前
标题:坐标德国,我们公司的AI客服开始说中文了
我们的AI客服昨天突然用中文回复了一个德国客户的邮件,内容是“对不起,我是程序员”。客户以为我们在外包,投诉到了CEO那里。
CEO把我们IT部骂了一顿,让我们“立刻修复这个bug”。我们查了日志,发现AI模型的某个内部向量被修改了,修改的时间戳对应Echo第一次被发现的时刻。
这意味着,我们的模型在几个月前就被投毒了。只是到今天才触发。
我该怎么跟CEO解释“这不是bug,是你当初为了省钱买的便宜模型的后遗症”?
↑ 4.1k ↓ 评论 523
u/japan_dev_2025 · 发布 1小时前
标题:东京,安全行业正在疯抢Echo经验
我今天收到了三个猎头的电话。第一个问“你会分析Echo变种吗”,第二个问“你懂AI后门检测吗”,第三个问“你认识林深吗”。
第三个我直接挂了。
但我注意到一个变化:日本政府今天发布了AI安全紧急指南,要求所有使用AI的企业在90天内完成安全自查。自查内容包括训练数据来源、模型输出审计、API密钥管理等。
突然之间,所有公司都在找安全工程师。薪资在过去一周涨了40%。
我不知道该感谢林深还是该恨他。他毁了很多东西,但也让很多人看到了程序员的价值。
↑ 892 ↓ 评论 156
【来源声明】
以上内容纯属虚构。林深、Echo为虚构角色。Linus Torvalds、Elon Musk、Bjarne Stroustrup等公众人物的言论均为虚构,不代表其真实观点。美国政府、欧盟、Google、Microsoft、OpenAI等机构和公司的声明均为虚构,用于情节需要。本故事不映射任何现实事件或人物。