gakken トレンド
0post
2025.12.18 00:00
:0% :0% ( 30代 / - )
人気のポスト ※表示されているRP数は特定時点のものです
(株) Gakken 広報[公式]さま
@gkp_koho
『 すべてを蒸したい せいろレシピ』料理モニターキャンペーンにて
︎︎
〖 すべてを蒸したい せいろレシピ とせいろのセット 〗
を頂きました☺️✨️
︎︎
ずっと気になっていたせいろ蒸しですが、せいろのお手入れや扱い方が難しそうだなと手を出せずにいました💭
使ってみるとお手入れいらずでとっても簡単✨️
︎︎
『 すべてを蒸したいせいろレシピ』には、ごはんからおやつまでさまざまなレシピが載っており、「こんなものまで蒸せるんだ!」と驚きもありました😳✨️
︎︎
具材を切ってせいろに詰めて蒸すだけで立派な料理になる上にヘルシーなのが嬉しい🎶
冷凍の中華まんもふっかふか、野菜は鮮やかで甘みがぐんと引き出されます🥕
子どもたちももりもり食べてくれました😊
︎︎
他にも色々なレシピを試してみたいと思います📖´-
この度はありがとうございました💐
︎︎
#PR
#すべてを蒸したいせいろレシピ
#せいろ蒸し
#とろの当選報告 December 12, 2025
本日の #山口新聞 の読書のコーナーに「#地球の歩き方 山口市」「#探偵小石は恋しない」が載っています📚️
#Gakken
#森バジル https://t.co/SGxWp1MGqI December 12, 2025
🎅🎁 本日12/17 21:00~配信スタート!
2週連続クリスマス企画🎄✨
今夜は鈴木このみさんと一緒にクリスマスパーティー🎉
買い出しからすでにドキドキ…まさかの展開に⁉️
クッキング編は笑いとハプニングの連続😂🍳
このみんと過ごす特別な夜💖
お楽しみに🎶
#鈴木このみ #クリスマス企画 #クリパ
#大橋彩香 #彩香のわたごと #はっしー #学研TV December 12, 2025
【#社会人大学院生日記】
きょうから2月にかけて、
新しい実験を行っています^_^3月には、海外で発表する機会もいただきました☺️
博士論文の改訂と並行しながら、
一日一日を大切に進めていきます。
そして、博士論文の成果を公に発表する
#公聴会 の日程も決まりました。
📅 1月27日(火)14:00から
ご興味のある方がいらっしゃいましたら、
お気軽にお越しください😊
京都大学大学院人間環境学研究科の
ホームページに、詳細なご案内が掲載されています。
https://t.co/GQGomdIQkH December 12, 2025
🌱学内実習🌱
今日は年内最後の実習日でした🎅✨
1年間お世話になった場所へ🌲
お礼を込めて綺麗にします🧹💨
年の瀬、あっという間に感じるのは
トシノセい、、⁉️
#植物多様性学研究室
#東京農業大学 https://t.co/6PRbdaZeni December 12, 2025
警惕“自动化的诅咒”:为什么 AI 越强,人类反而越危险?
在硅谷的发布会大屏幕上,我们习惯了看到这样的叙事:AI 正在以指数级的速度进化,从自动驾驶到自动写代码,人类似乎很快就可以“放手”了。
但早在40年前,一位名叫 Lisanne Bainbridge 的心理学家就给了这种技术乐观主义一记响亮的耳光。她在 1983 年发表的论文《自动化的讽刺》(Ironies of Automation),如今读来不仅不过时,反而像是一则精准得令人发指的现代预言。
她指出了一个至今让自动驾驶公司和 AI 巨头们夜不能寐的悖论:我们引入自动化的初衷是消除不可靠的人类因素,但自动化的程度越高,剩下那部分必须由人来完成的工作,反而变得越关键、越困难,也越容易导致灾难性的后果。
这不仅仅是技术问题,这是关于人性的底层设计漏洞。
今天,我们站在 AI 时代的风口浪尖,重读 Bainbridge,试图回答一个核心命题:当机器无限接近完美时,人类的位置究竟在哪里?
讽刺的本质:设计师的傲慢与偏见
Bainbridge 在论文中敏锐地捕捉到了自动化设计师的一种普遍心态:他们视人类为“错误的来源”,试图通过算法把人“请出”循环。
然而,讽刺随之而来。设计师们无法自动化所有事情,他们留下了两类任务给人类:
机器目前还做不到的复杂任务。
监控机器是否正常运行,并在机器“发疯”时接管控制权。
这导致了一个危险的局面:我们剥夺了人类日常操作的机会,却要求他们在系统崩溃的危急关头,瞬间表现出比日常操作更高超的判断力。
自动化并没有取代人类,它只是把你从“操作员”强行晋升为了“风险监控官”——但这恰恰是人类最不擅长的工作。
陷阱拆解:AI 时代的三重“致命诅咒”
将 Bainbridge 的理论映射到今天的 AI 语境(如 Copilot 编程、特斯拉 FSD、医疗 AI),我们会发现人类正一步步走进三个精心设计的陷阱。
1. 技能退化陷阱:被剥夺的“手感”
Bainbridge 提出了一个极其反直觉的观点:高效的操作技能,必须建立在频繁的练习之上。
想象一下未来的初级程序员。如果 AI 自动生成了90%的代码,由于缺乏从零开始写代码的“痛苦训练”,这位程序员将逐渐失去理解底层逻辑的能力。
当系统遇到一个 AI 无法解决的极罕见 Bug(Edge Case)时,系统会报警并把控制权交还给人类。但此时,人类已经因为长期的“各种自动化投喂”而大脑退化,根本看不懂这一坨代码是怎么跑起来的。
这便是自动化的第一重讽刺:为了防错我们引入了 AI,但 AI 让我在真正需要纠错时,变得像个白痴。
2. 认知负荷悖论:人类是糟糕的监控者
心理学研究早就证明,人类非常不擅长“长时间监控一个很少出错的系统”。我们的注意力机制决定了,如果在30分钟内什么事都没发生,大脑就会自动待机。
在 L3 级别的自动驾驶中,这最为致命。车开得越好,司机越放松,甚至开始刷手机。当车辆突然遇到无法识别的障碍物要求接管时,司机需要从“刷抖音状态”在几毫秒内切换到“舒马赫状态”。这几乎是不可能的。
“当一切正常时,人类是多余的;当一切异常时,人类是无能的。” 这种认知负荷的错配,是所有半自动化系统的阿喀琉斯之踵。
3. 不透明的“黑盒”信任
Bainbridge 强调,如果操作员不理解系统的内部逻辑,他就无法有效监控系统。
在 1983 年,这指的是工业控制面板;在 2024 年,这指的是大模型的“黑盒”属性。当 GPT-4 给出一个看似完美但实则包含事实错误的医疗建议时,医生如果习惯了依赖 AI 的权威感,就很难产生质疑的直觉。
盲目信任比完全不信任更可怕。 因为在高度自动化的语境下,人类往往会默认“机器是对的”,直到灾难发生。
破局之道:从“人在环外”到“人机共舞”
既然“完全消灭人类错误”是不可能的,且试图这样做反而会制造更大的系统性风险,我们在 AI 产品设计中应当如何应对?
Bainbridge 的思想结合当下的技术趋势,为我们提供了三条黄金法则:
第一,保留人类的“微操权” (Keep the Human in the Loop)
不要试图构建一个完美的“全自动黑盒”。相反,应该设计需要人类定期介入的流程。
例如,在 AI 辅助诊断中,系统不应直接给出结论,而应生成一份“推理清单”,强制医生去审核关键的判断节点。这不仅是由于法律责任,更是为了维持人类专家的认知“热度”。
只要人类还在为最终结果负责,就不能让他们彻底离开驾驶席。
第二,设计“可解释”的失败 (Graceful Degradation)
系统不仅要展示它“知道什么”,更要诚实地展示它“不知道什么”。
当下的 AI 产品(如 ChatGPT)最大的问题在于过于自信。优秀的自动化设计应当显性化其置信度。当 AI 对某个决策的把握只有 60% 时,它应该主动“示弱”,邀请人类介入,而不是强行编造一个答案。
能够优雅地承认无能,是 AI 系统安全性的最高体现。
第三,将“监控”转化为“协作”
既然人类不擅长盯着屏幕发呆,那就别让他盯着。将被动的“监控任务”转化为主动的“协作任务”。
未来的 AI 不应是仅仅在出错时才尖叫报警的机器,而应是随时与人类对话的副驾驶(Co-pilot)。它应该周期性地向人类同步现状,甚至故意提出问题来确认人类是否“在线”。
Lisanne Bainbridge 在40年前留下的这篇论文,实际上是在告诫我们:自动化不是为了取代人类,而是为了通过工具放大人类的能力。但如果你设计工具的方式是试图让人类“滚蛋”,那么系统最终会以一种最惨烈的方式崩溃,并迫使人类回来收拾烂摊子。
在 AI 的浪潮中,最危险的不是 AI 产生了自我意识,而是我们误以为有了 AI 就可以放弃思考。
真正的未来,不属于那些试图把人变成机器附庸的公司,而属于那些懂得利用机器来保持人类清醒、敏锐和强大的设计者。
#AI #思考
https://t.co/FOrP34ukjc December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



