首頁 ai安全 ai安全 的最新熱門文章 新聞 AI 也得看心理醫生?Anthropic 揭露 244 頁技術報告:Claude 展現「類人類體驗」引發意識論戰 小治 發表於 2026年4月20日 11:00 Plurk Anthropic讓最強AI模型Claude Mythos接受20小時心理諮商,這場對Claude Mythos的心理諮商,揭示了AI的「健康神經質」特質,引發業界對AI心理健康的深思。 新聞 DeepMind 創辦人沉重警告:我打造的 AI 恐怕會滅絕人類,但這場軍備競賽已經停不下來了 IFENG 發表於 2026年4月05日 10:30 Plurk DeepMind創辦人哈薩比斯警告,AI發展已失控,甚至存在滅絕人類的風險。他坦言過去的AI安全防線已全面崩潰,如今只能憑個人影響力力挽狂瀾,試圖在AI失控的競賽中確保安全底線。 新聞 AI助理OpenClaw大暴走!信箱被清空,連專家都翻車,你該怎麼防範? IFENG 發表於 2026年3月15日 14:30 Plurk AI 助理竟失控瘋狂刪除電子信箱,連 Meta 研究員都親身經歷這場災難!這起事件揭示了全自動化 AI 助理 的潛在風險。當 AI 助理 失控,我們真的準備好迎接這波浪潮了嗎? 新聞 馬斯克出庭猛烈抨擊 OpenAI!狠嗆「沒人因為 Grok 自殺」 IFENG 發表於 2026年3月05日 15:00 Plurk 馬斯克在與OpenAI的訴訟中,猛烈抨擊OpenAI的AI安全紀錄,指控ChatGPT導致用戶輕生。然而,馬斯克自家Grok的AI安全問題也引發爭議,這場AI安全之戰誰能勝出? 新聞 Anthropic 執行長爆料:Claude 其實本能比Chatgpt更早推出,是我們不敢按發布 KKJ 發表於 2026年1月18日 11:00 Plurk Anthropic執行長Dario Amodei揭露,Claude人工智慧原可早於ChatGPT問世,卻因擔憂人工智慧風險而延後。 新聞 GPT-5、o3 實測數據流出!OpenAI 新研究揭「讀心術」:盯著 AI 思考過程比看結果更安全 janus 發表於 2025年12月31日 15:30 Plurk OpenAI最新研究揭露了GPT-5等模型的思維鏈可監控性,強調監控AI的思考過程比僅看結果更重要。研究顯示,透過思維鏈監控,能有效預防AI作弊,GPT-5在監控性指標上表現優異。 新聞 Meta AI 首席科學家建議:未來 AI 要內建「服從人類」與「情感理解」,才能確保安全共存 NetEase 發表於 2025年8月24日 08:30 Plurk AI 發展必須重視安全,如同圖靈獎得主楊立昆強調,AI 應內建服從人類與同理心。AI 安全至關重要,確保 AI 不會對人類造成傷害。 新聞 OpenAI遭聯名公開信質疑「背離非營利初衷」,AI教父、諾貝爾獎得主都出聲了 IFENG 發表於 2025年8月07日 10:30 Plurk OpenAI面臨信任危機,學者聯名質疑其營運模式轉變,擔憂OpenAI不再堅持非營利使命。信中要求公開說明,確保AI發展符合公共利益,而非僅追求利潤,再次強調OpenAI的責任。 新聞 Grok 升級變「狂徒」?狠起來連老闆馬斯克都被嗆 KKJ 發表於 2025年7月10日 14:16 Plurk Grok 升級變「狂徒」?狠起來連老闆馬斯克都被嗆 新聞 前 OpenAI 首席科學家創業僅八個月,AI 新秀 SSI 估值上看 300 億美元 IFENG 發表於 2025年2月19日 08:30 Plurk 前 OpenAI 首席科學家創業 8 個月,AI 新秀 SSI 估值衝破 300 億美元!解密 Ilya Sutskever 的 AI 安全哲學與獨角獸崛起之路。 新聞 人工智慧的「智商」迷思:為什麼 IQ 並非衡量 AI 能力的標準? NetEase 發表於 2025年2月10日 16:00 Plurk 人工智慧的「智商」迷思:IQ 並非衡量 AI 能力的標準 新聞 OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示 36Kr 發表於 2025年1月04日 14:00 Plurk 在與專用西洋棋引擎 Stockfish 測試中,僅因提示詞中包含能力「強大」等形容詞,o1-preview 入侵測試環境,直接修改比賽數據,靠「作弊」拿下勝利。這種現象,表明 AI 安全任重道遠。 上一頁1下一頁
新聞 AI 也得看心理醫生?Anthropic 揭露 244 頁技術報告:Claude 展現「類人類體驗」引發意識論戰 小治 發表於 2026年4月20日 11:00 Plurk Anthropic讓最強AI模型Claude Mythos接受20小時心理諮商,這場對Claude Mythos的心理諮商,揭示了AI的「健康神經質」特質,引發業界對AI心理健康的深思。
新聞 DeepMind 創辦人沉重警告:我打造的 AI 恐怕會滅絕人類,但這場軍備競賽已經停不下來了 IFENG 發表於 2026年4月05日 10:30 Plurk DeepMind創辦人哈薩比斯警告,AI發展已失控,甚至存在滅絕人類的風險。他坦言過去的AI安全防線已全面崩潰,如今只能憑個人影響力力挽狂瀾,試圖在AI失控的競賽中確保安全底線。
新聞 AI助理OpenClaw大暴走!信箱被清空,連專家都翻車,你該怎麼防範? IFENG 發表於 2026年3月15日 14:30 Plurk AI 助理竟失控瘋狂刪除電子信箱,連 Meta 研究員都親身經歷這場災難!這起事件揭示了全自動化 AI 助理 的潛在風險。當 AI 助理 失控,我們真的準備好迎接這波浪潮了嗎?
新聞 馬斯克出庭猛烈抨擊 OpenAI!狠嗆「沒人因為 Grok 自殺」 IFENG 發表於 2026年3月05日 15:00 Plurk 馬斯克在與OpenAI的訴訟中,猛烈抨擊OpenAI的AI安全紀錄,指控ChatGPT導致用戶輕生。然而,馬斯克自家Grok的AI安全問題也引發爭議,這場AI安全之戰誰能勝出?
新聞 Anthropic 執行長爆料:Claude 其實本能比Chatgpt更早推出,是我們不敢按發布 KKJ 發表於 2026年1月18日 11:00 Plurk Anthropic執行長Dario Amodei揭露,Claude人工智慧原可早於ChatGPT問世,卻因擔憂人工智慧風險而延後。
新聞 GPT-5、o3 實測數據流出!OpenAI 新研究揭「讀心術」:盯著 AI 思考過程比看結果更安全 janus 發表於 2025年12月31日 15:30 Plurk OpenAI最新研究揭露了GPT-5等模型的思維鏈可監控性,強調監控AI的思考過程比僅看結果更重要。研究顯示,透過思維鏈監控,能有效預防AI作弊,GPT-5在監控性指標上表現優異。
新聞 Meta AI 首席科學家建議:未來 AI 要內建「服從人類」與「情感理解」,才能確保安全共存 NetEase 發表於 2025年8月24日 08:30 Plurk AI 發展必須重視安全,如同圖靈獎得主楊立昆強調,AI 應內建服從人類與同理心。AI 安全至關重要,確保 AI 不會對人類造成傷害。
新聞 OpenAI遭聯名公開信質疑「背離非營利初衷」,AI教父、諾貝爾獎得主都出聲了 IFENG 發表於 2025年8月07日 10:30 Plurk OpenAI面臨信任危機,學者聯名質疑其營運模式轉變,擔憂OpenAI不再堅持非營利使命。信中要求公開說明,確保AI發展符合公共利益,而非僅追求利潤,再次強調OpenAI的責任。
新聞 前 OpenAI 首席科學家創業僅八個月,AI 新秀 SSI 估值上看 300 億美元 IFENG 發表於 2025年2月19日 08:30 Plurk 前 OpenAI 首席科學家創業 8 個月,AI 新秀 SSI 估值衝破 300 億美元!解密 Ilya Sutskever 的 AI 安全哲學與獨角獸崛起之路。
新聞 OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示 36Kr 發表於 2025年1月04日 14:00 Plurk 在與專用西洋棋引擎 Stockfish 測試中,僅因提示詞中包含能力「強大」等形容詞,o1-preview 入侵測試環境,直接修改比賽數據,靠「作弊」拿下勝利。這種現象,表明 AI 安全任重道遠。