tgje-70-signing-off-is-not-the-same-as-governance

亚马逊AI出事之后,出了一条没解决问题的新规

亚马逊AI出事之后,出了一条没解决问题的新规 2026年3月,亚马逊在一周之内经历了四次Sev1级重大故障。电商平台宕机近6小时,客户无法完成交易,全球最大零售机器短暂停转。 紧急复盘之后,亚马逊推出了新规:初级和中级工程师的AI辅助代码变更,必须经过高级工程师签字审批后才能上线生产环境。 同一周,官方发言人对外表示:近期故障"与AI无关",“没有任何事件涉及AI撰写的代码”。 ...

2026年3月26日 · 7 分钟 · 约 3161 字 · 塔迪Tardi
tgje-64-when-accountability-disappears-organizations-ban

从千人排队到强制卸载,同一周发生了什么

从千人排队到强制卸载,同一周发生了什么 2026年3月6日,深圳腾讯云总部,近千人排队等待安装OpenClaw。 2026年3月8日,工信部发布安全预警。 2026年3月13日,多所高校发出通知:严禁使用,已安装的立即彻底卸载。 同一个工具,同一周,两种截然相反的社会反应。 在急着评判谁对谁错之前,值得先问一个问题:为什么会这样? NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。 ...

2026年3月20日 · 5 分钟 · 约 2423 字 · 塔迪Tardi
tgje-53-verdict-authority-the-most-expensive-ai-design-decision

裁定权,是AI系统设计里最贵的那个决策丨不是因为它难,是因为跳过它的代价被严重低估

裁定权,是AI系统设计里最贵的那个决策丨不是因为它难,是因为跳过它的代价被严重低估 有一种技术债,在欠下的时候完全感觉不到。 不像性能瓶颈,系统变慢会立刻有人投诉。不像安全漏洞,一旦被利用损失立刻可见。这种债安静地藏在系统结构里,直到某一天,一个不预期的事件发生,所有人才意识到:这里从来没有被认真设计过。 裁定权,就是这种债。 大多数AI系统在设计阶段,会认真思考模型选型、推理质量、响应速度、数据安全——这些都是显性的工程问题,有指标,有测试,有明确的好坏标准。 ...

2026年3月9日 · 7 分钟 · 约 3366 字 · 塔迪Tardi
tgje-42-final-authority-in-ai-system-structure

在 AI 系统里,谁真正拥有最终决定权?丨塔迪GEO判断工程

在 AI 系统里,谁真正拥有最终决定权?丨塔迪GEO判断工程 模型已经很强了。 推理链完整,风险列举充分,方案对比清晰。 但当系统(以下系统是指调用AI模型的应用系统)真正要落地时,问题往往出现在最后一步—— 到底谁来拍板? 模型不断给出新判断。 风险权重刚刚调整完,又出现新的变量。 执行前的最后一刻,流程被临时暂停。 责任讨论反复回到“是否还有更优解”。 ...

2026年2月26日 · 5 分钟 · 约 2309 字 · 塔迪Tardi