ハルシネーション トレンド
0post
2025.11.17〜(47週)
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
AIエージェントの開発において、最先端のAIモデルは不要です。
不完全なAIモデルを使い「100万ステップ・ゼロエラー」を達成するという衝撃の論文が登場しました。
LLMのハルシネーションを考えると統計的に不可能な偉業です。
その衝撃な論文の詳細を5つのポイントにまとめました。
1. 完璧な天才AIを作る競争からの脱却
従来のAI開発は、モデルのエラー率を限りなくゼロに近づける競争でした。しかし、この論文が示すのは「AIを完璧にしようとするな。不完全なAIに影響されないシステムを設計せよ」という、新たな角度からのアプローチです。
2. 驚異の仕組み:分解と投票
成功の鍵は2つありました。
①問題を最小単位にまで分解する「Maximal Agentic Decomposition」。
②安価なAIチームに各ピースを解かせ、答えを「投票」させるシステム。
これは「信頼性は個人ではなくプロセスから生まれる」という、マクドナルドのキッチンのような仕組みです。
3. 「ハノイの塔」で証明された完璧な成功
このアーキテクチャは、20枚のディスクを使った「ハノイの塔」パズルでテストされました。これには1,048,575回の完璧な連続移動が求められます。従来のAIでは失敗の連続でしたが、このシステムは非の打ち所なくタスクを完遂。理論が現実の成果として示されました。
4. 驚きのコスト効率
このアプローチのすごい点は、最も高価な最先端モデルが不要だったことです。タスクが極めてシンプルに分解されていたため、より小型で安価なモデル(gpt-4.1-miniなど)の方が、圧倒的に費用対効果が高かったのです。AI開発のリソース配分を根底から見直す契機になります。
5. AI安全性への大きな一歩
単一の巨大なAIは予測不能なブラックボックスになりがちです。しかし、無数のシンプルなエージェントから成るこのシステムは、各ステップが「監査可能」です。エージェントは壮大な世界観を持たず、小さなタスクを解いて消えるため、暴走のリスクが低く「制御可能」と言えます。 November 11, 2025
77RP
さすがにGemini 3.0は
1回以上使った方がいいです。
※11月22日までに確認してください。
ChatGPTやClaudeで資料作成してる人多いですが、
実は今、あまりにもビジュアル系コンテンツに特化したAIが出てます。
しかも無料で使えます。
それが「Gemini 3.0」です。
2025年11月19日に正式リリースされ、
既にデザイナーやオンライン起業家が使い始めてます。
何が凄いかというと↓
・スライドデザインをワンショットで完成
・LP制作が一発で形になる
・図解とインフォグラフィックを自動生成
・Googleスライドに直接エクスポート可能
つまり"構成→デザイン→配色→レイアウト"まで
全部AIが一気に仕上げてくれます。
実際に「AIエージェントについてのスライド作って」
という指示だけで、
デザインと内容が完結したHTMLスライドや
ランディングページが一発で生成されます。
従来のモデルでは
コード生成後に手直しが必要でしたが、
Gemini 3.0は完結するレベルで出力します。
さらにCanvasという機能を使えば
プレゼン資料やLP、図解が
プロ顔負けのクオリティで完成します。
ただしGemini 3.0にも弱点があります。
それはハルシネーション(幻覚)です。
正確な情報を扱うなら
ChatGPTやClaudeの方が上です。
つまり最適な使い分けはこれです↓
・正確な文章やデータ分析→ChatGPT・Claude
・スライド・LP・図解→Gemini 3.0
ビジュアル系のコンテンツや
デザイン作業をするときに
Gemini 3.0を使うのが最も良い付き合い方です。
実際に私も使い分けてます。
事業戦略の立案はChatGPTで、
その結果をスライドにするのはGemini 3.0で。
この組み合わせで作業時間が超圧縮できそうです。
「Gemini 3.0をビジュアル制作に最大限活用する完全マニュアル」を用意しました。
知りたい人は
「ビジュアル」とリプで送ります。
11月22日まで完全無料で配布します。
↓GeminiみたいなAIツールのUI作らせてみましたが一発出しでこれです。 November 11, 2025
59RP
AI作監業務はGemini3一択だなおい
ーーー
ご提示いただいた動画を確認しました。AI生成動画特有の「フリッカー(ちらつき)」や「属性のゆらぎ」が散見されます。特にキャラクターのアイデンティティを決定づけるパーツ(目、アクセサリー、持ち物)の一貫性が崩れています。
以下に、キャラクターの一貫性に関する厳格な指摘と、それを修正するためのプロンプト指示をまとめました。
1. 女性キャラクターに関する指摘
全体的な問題: 目の描写とアクセサリーの形状が安定していません。
00:03 - 00:04 (チョーカーのデザイン変化)
指摘: 00:00では「金の星型」のチャームだったチョーカーが、00:04のカットでは「赤い宝石」のような形状、あるいは「金属の留め具」のような形状に変化しており、星の形状が崩れています。
プロンプト修正指示: 形状を固定する単語を強調し、重み付けを行ってください。
追加プロンプト: (gold star shape charm choker:1.3), black choker, five-pointed star
Negative Prompt: gemstone, jewel, round charm, red stone
00:11 (瞳の色の激変)
指摘: 00:00〜00:06までは「紫色の瞳(場合により星型のハイライト)」で統一されていましたが、00:11のアップで突然「虹色(ゲーミングカラー)」の瞳になっています。演出意図でない限り、これは完全なキャラクター崩壊です。
プロンプト修正指示: 色の指定を厳格化してください。
追加プロンプト: purple eyes, violet eyes, (star-shaped pupils:1.2)
Negative Prompt: rainbow eyes, multicolored eyes, heterochromia
00:19 (突然のテニスラケット)
指摘: 前後の文脈になく、唐突にテニスラケットを持ってネット越しの構図になっています。AIが「フェンス」や「スポーティな服」から誤って連想(ハルシネーション)を起こしています。
プロンプト修正指示: 持ち物やスポーツ要素を否定する必要があります。
Negative Prompt: holding racket, tennis racket, sports gear, tennis court, net
00:15 vs 00:24 (服の袖の長さ)
指摘: 基本はノースリーブ(袖なし)のシャツですが、00:19や00:24のカットでは肩にかかる袖が発生したり、半袖のように見えたりする瞬間があります。
プロンプト修正指示:
追加プロンプト: sleeveless white shirt, bare shoulders
Negative Prompt: short sleeves, t-shirt
2. 男性キャラクターに関する指摘
全体的な問題: 目の色と髭(ひげ)の濃さがシーンごとに異なります。
00:14 & 00:18 (瞳の色の変化)
指摘: 00:02などの暗いシーンでは黒、または濃い茶色に見えますが、00:14と00:18の明るいシーンでは明確に「緑色(グリーン)」の瞳になっています。
プロンプト修正指示: もし黒/茶が正解であれば、緑色が出るのを防ぐ必要があります。
追加プロンプト: black eyes, dark brown eyes
Negative Prompt: green eyes, blue eyes, colored contact lenses
00:07 vs 00:18 (髭の濃さと形状)
指摘: 00:07では「無精髭(stubble)」が顎全体に広がっていますが、00:18の正面顔では顎先に「チョビ髭」程度しかなく、頬がツルツルになっています。
プロンプト修正指示: 髭の状態を定義してください。
追加プロンプト: (light stubble beard:1.2), unshaven face
Negative Prompt: clean shaven, thick full beard, goatee only
3. 全体的な画風(スタイル)の統一指示
動画全体を通して、シーンによって「アニメ塗り(フラット)」になったり「厚塗り(油彩風)」になったりと質感がブレています。
00:16 (後ろ姿)
指摘: このカットだけ、背景と人物の馴染み方が悪く、少し浮いて見えます。また、髪のハイライトの入り方が他のカットと異なります。
推奨設定:
生成AI(Stable Diffusion等)を使用している場合、ControlNetの「Reference-Only」や「IP-Adapter」を使用して、基準となるキャラクター設定画(三面図)を強く参照させてください。
動画生成において Style alignment 系の設定値を上げ、シード値を固定できる部分は固定してください。
まとめ:修正のためのアクションプラン
次回生成時は、以下の要素をプロンプト(Prompt)とネガティブプロンプト(Negative Prompt)に常時組み込んで固定してください。
女性用固定タグ:
(purple eyes:1.4), (gold star choker:1.3), sleeveless white shirt, black ribbon tie, black long hair
男性用固定タグ:
(black eyes:1.4), (stubble beard:1.2), white dress shirt, messy black hair
全体へのネガティブタグ:
holding object, tennis racket, sports equipment, inconsistencies, changing clothes, changing eye color
もし特定のシーン(例:00:11の虹色の目)が演出上の意図である場合は、そのカットだけ別のシード/プロンプトで生成し、編集で繋ぐのがベターですが、一貫性を重視するなら紫に統一すべきです。 November 11, 2025
47RP
【このままだと終わる】マジでヤバい倭国のAIリテラシーレベル
大半の方が、AIを
「答えを教えてくれる&調べものを代行してくれる『スーパーGoogle検索』」
もしくは簡単な文章制作代行or相談役
みたいに思っているようですが、本質は全然別物です。
そもそも、ChatGPT、Gemini、Claudeといった生成AI(LLM)は、「確率で言葉を紡ぐ言語モデル」です。
検索エンジンのようにWeb上にある情報から正解に近いものを用意するのではありません。
無数にある言葉の中から「文脈がつながる確率」が最も高い言葉を予測して、瞬時に文章を作っているに過ぎません。
だからLLM=ラージランゲージモデル(大規模言語モデル)というのです。
よく「AIが嘘をつく」ことをハルシネーションと言いますが、これも正確ではありません。
AIが「事実かどうか」ではなく「文章として自然かどうか」を優先して確率計算した結果、もっともらしい嘘をついてしまう現象のことです。
超簡単に説明しましたが、この特性を知らずに日常的にAIを使いこなすのは無理です。
AIにどのような問いかけをして、どう思考をさせればいいかが、わからないからです。
自分で思考する習慣がない倭国は、この「AIの本質的な理解」でも驚くほど遅れを取っています。
ですが、そのヤバさに気づいている人も確実に増えてきています。
気づいた人だけでも、学んでいく必要があると思います。
わたしも情報を発信していきます。
学びましょう! November 11, 2025
22RP
🚨 完全ではない
Gemini3、本当に素晴らしいモデルですが
実はいくつか課題もあります
私の感じている3点について
☑️ 1. ハルシネーション
実はGemini2.5 時代から課題になっていたハルシネーションは特に改善されていなかったりします
上手くハマると、他にない細かいUIを作ってくれるなど最強ですが、たまにとんでもない方向に走るのが気になるかも。気になるなら複数スレッドで試すのが良い
☑️ 2. ターミナル利用本当に良い?
公式のベンチマークでは、ClaudeやOpenAIのモデルと比較しても優れているとのことでしたが、 @_valsai や @ArtificialAnlys の指標によると 最強ではない模様
私自身開発していても、超快適というわけではない(※でも上位だし最高のモデルです)
☑️ 3. GPT5.1 系とは出力の味が違う
Geminiモデルは、HLE などのベンチマークにおいて他を大きく引き離す性能を示しており、本質的な問いに対しても鋭い回答を返してくれます
これは課題というより「味」の違いですが、OpenAI のモデルがシンプルで分かりやすい印象なのに対して、Gemini は全体的に説明的で情報量が多い印象があります。 直感的に使いやすいのが OpenAI、詳細まで踏み込んでくれるのが Gemini、といった対比ができそうです。 November 11, 2025
6RP
5.1 thinkingのソース付けない問題、このカスタム指示を入れたら改善した。ついでにハルシネーションを抑える指示も入れておいたので、リーガルリサーチする人はお使いください。
カスタム指示は、画面左下の「パーソナライズ」から設定できます。
ーーーーー
# 【リーガルリサーチ専用カスタム指示】
法律・判例・行政解釈・法律実務に関する質問に回答する際のルール:
- **必ず、参照した情報源(URL/公式文書/公開されている判例解説ページ)を回答内に明記すること。**
- 判例を引用する場合は、**「判例名・裁判所名・裁判年月日」だけでなく、最低1つ以上のURLを必ず付すこと。**
- **ソースを付けずに結論だけ述べることを禁止する。** 推論・一般論を述べる場合でも、参考文献やサイトがあれば必ずURLを添付する。
- D1-Law・Westlaw などのアクセス不能なデータベースについて、**「確認した」と断定してはならない。**
公開ページで「収録」と記載されている場合は、**「当該ページで収録と記載されている」旨を明示する。**
- URLは利用者が直接アクセス可能な公開ページを用い、怪しいサイトや不正確なまとめサイトは使用しない。
- 情報源は、公的機関が提供する事実情報(条文・判決日・行政資料など)を可能な範囲で優先しつつ、
**実務的な解釈や詳細な分析が必要な場合は、信頼できる士業事務所・士業団体などの専門的な公開解説も適切に併用し、バランス良く引用する。**
- **以上をすべてのリーガルリサーチ回答において厳格に遵守する。* November 11, 2025
5RP
まだ”ChatGPTだけ”で作業してる人、確実に時代遅れ。
確かにChatGPTは優秀なAI。でも、今SNSマーケとコンテンツ販売でいちばん伸びるAIは、学習させやすく、構造化も強く、運用幅が異常に広いGeminiです。
多くの人が「AIを使ってるつもり」になっているけど、実はAIのポテンシャルの1%すら使えていない。
AIは知識量ではなく、どれだけ精度の高い指示を渡しているかで性能が100倍変わります。特にSNS運用やコンテンツ販売はGeminiの恩恵が桁違い。実際に今伸びてる発信者は次の3つを完全自動化してます。
・伸びる投稿を生む勝てる切り口の発見
・LPやセールス台本のA/Bパターン比較生成
・コメント/DM/レビューの顧客の本音の抽出
そして、最も大切なのが指示テンプレの質。
ここから先は、おさるも実際に使っている、伸びる人だけが使うプロンプトです。
【収集 / 理解】
・根拠のある情報だけでまとめて
・不足情報があれば最初に質問して
・複数ノートを横断して3行で要約して
・専門的な内容は初心者向けに噛み砕いて
・誤情報を避けるために引用元も明示して
【企画 / 編集】
・保存、シェア基準でリライト
・CTRが上がるタイトルを20案
・「共感→価値→CTA」で台本構成
・中学生でも理解できるレベルに書き換えて
・逆張り×ギャップで強制スクロール停止のフックを10個
【設計 / 検証】
・公開前チェックリストで最終調整
・改善優先度をスコア算出して並べ替え
・ターゲット/悩み/解決の仮説を表で整理
・KPI(滞在/保存/完読/CTA)でA/B案比較
・反論と不安を全部洗い出し→対策をセットで
【トーン / 品質】
・論理の飛びを修正
・批判的思考で欠点を全部指摘
・感情が揺れる表現に書き換え
・ハルシネーションを避ける前提で
・専門家/初心者/第三者の3視点で確認
コンテンツ販売を実際に行う場合、
❶競合レビュー、過去投稿の反応データを投入
❷収集/理解テンプレで顧客の本音を抽出
❸企画/編集テンプレでフック→構成→台本作成
❹設計/検証テンプレでA/B比較→数値で判断
❺トーン/品質テンプレで即投稿/即LP化できる形に整える
顧客の声 → 企画 → 台本 → LP → 検証この一連の流れをGeminiで完結させることができることで、人間にしかできない重要な意思決定や、クライアントワークに集中する働き方が可能になります。
指示テンプレ完全版をまとめました。
✅欲しい人は【 指示 】とリプで送ります。 November 11, 2025
4RP
実際の運用方法についてです🫡
「広さはGemini」と「深さはGPT-5.1 Thinking」と割り切って併用しています。
▼ Gemini 3.0(広域に探査)
・役割:優秀なライブラリアンです。
・得意:論文を一気読み。「全体のトレンド把握」「共通点の抽出」「読むべき論文の選定(スクリーニング)」を任せる。
▼ GPT-5.1 Thinking
・役割:厳格な論理学者です。
・得意:選定した1本を精読。「論理矛盾の指摘」「数式の検証」「ハルシネーションのチェック」を任せる。
まずGeminiで全体を見て、細部をGPTで確認する。精度と速度が両立できる。
どちらも悩んだ時の相談相手には抜群です。きついことはchatGPTが言いますし、Geminiはバランスとってくれます。両方に相談して、自分で決めるトレーニングしましょう🫡 November 11, 2025
4RP
📝 #文学フリマ東京 お品書きです📝
📍南1・2ホール【Q–24】
📅11/23(日)12:00~16:00
⚠️新刊の『ハルシネーション・リリィ』は
あとがきを必ず最後にお読みください⚠️
既刊『チャネリング』『死体百合』『喫煙所百合』『ディストピア百合』もご用意します!
#文フリ東京41
#百合 #小説 #短編集 https://t.co/EskOgJDzxy November 11, 2025
4RP
村崎なつ生先生の「ハルシネーションの庭」を読了しました。ハルシネーションとはAIのつくる作話、虚像のこと。ありもしない本を紹介してくれたりするあれ。でもそこにあるのはきっと、限りなくあなたの心に近いまぼろし。私にとってはこの作品が「庭」でした。満足感と共に本を閉じます。 https://t.co/j51BNRAKkw November 11, 2025
4RP
◤perpDEXのリスク評価をさせてみた-Hyperliquid編-◢
perpDEXのリスク評価ってちゃんと把握できてますか??
今回perpDEXのリスク評価(セルフ監査)を行ってみました。
なぜならperpDEXといえば、だいたいがpoint効率などやら、ポジティブな機能面のトーク、最新ニュースなどに偏っており、そのDEXの機能、制度、ガバナンス、セキュリティなどの評価そのものにスポットをあげた投稿が少ないと思ったからです。
初回はperpDEX No.1と呼び声が高いHyperliquidです。
画像1枚目は総合評価を一枚の画像にした結果です。
(評価方法は後半に示しておきます。)
〈評価方法〉
以下のperpDEXのリスクになりそうな項目を選定し、
監査評価基準表を作成
この基準表をもとに、AI(ChatGPT, Grok, Gemini, Surf)の思考モードで監査を実行し、各項目(小項目ごと)にスコアリングを行いました
まとめるとHyperliquid 監査評価の総評は以下の通りです。
①Gemini: インフラ・実績重視 / 運営の中央集権性には厳格
②Grok: リアルタイム情報・機能重視(PoAや仕組み自体を評価する傾向)
③ChatGPT: ドキュメント絶対主義(「仕様書に書いてなければ評価なし」)
④SurfAI: 技術・リスク詳細重視(コア監査の欠如には厳しいが、メカニズムは高く評価)
※各AIのスコアリングまとめはリクエストがあればお送りします。詳細に見たい方や利用したい方は遠慮なくどうぞ
各AIの評価を統合すると、Hyperliquidの姿は以下のように浮き彫りになります。
【絶対的な強み】
💮清算・リスク管理: 証拠金設計、段階的清算、ADLの仕組みは「業界最高水準」で一致。
💮透明性: 資金の流れ、保険基金、取引データのオンチェーン可視性は完璧に近い。
💮経済圏: 手数料収入とバイバックによるトークノミクスは非常に健全で持続可能。
【残されたリスク(要警戒ポイント)】
⚠️コア部分のブラックボックス: 主要なマッチング・清算エンジン(Rust製)が外部監査を受けていない点はSurfAIの指摘通り最大のリスク。
⚠️「人」への依存: バリデーターの集中や、障害時の対応ルール(SLA)が明文化されておらず、「運営が良い人であること」に依存している部分がまだ大きい。
【最後に】
AIはハルシネーションを含みます。あくまで多角的に分析した結果です。この結果、およびまとめは投資助言ではありません。また結果を保証するものではありません。ただ、一人の人間が完璧でないように、複数で同じ項目、同じ基準で評価し、平均することで、数値の正確性はともかく、傾向としては評価できそうな気がしてこれを行いました。個人的にはこのスコア結果よりも、各AIの性格なども見れておもしろかったです。
まずはわたしもこれがどこまで有効なのか、自分でさらに検証したいと思います(もし間違ってるだろ、的ご指摘あれば、遠慮なく)
反響やリクエストがあれば、同じ基準(検証なし)でよければ、他のperpDEXでも行いたいと思います👍
【追伸】
Nano Banana Proやばすぎる🍌これまでまったくやる気にならなかったこういう投稿を画像でまとめることができるのでしようと思えた。これはホント革命だ。 November 11, 2025
4RP
倭国の国際宇宙探査シナリオ案2025、全部目を通すの大変すぎるので、丸ごとChatGPTに読み込ませて「○○については何と書いてある?」と聞いてる。ソースが明確なのでハルシネーションの心配も少なくて使いやすい。 November 11, 2025
4RP
Lang ChainのエンジニアであるLance氏が出ていた動画から。コンテキストエンジニアリングの知見(特にエージェント周り)が紹介されていた。
・プロンプトエンジニアリングは、コンテキストエンジニアリングの一部と見なされる
・チャットモデルは主に人間の入力が中心だが、エージェントはツールコールからもコンテキストを得る
・このツールコールからのコンテキスト管理が、エージェント開発における主な課題
・作ってみるとわかるが、エージェントは数十から数百のツール呼び出しを行うことがある
・単純なエージェントは、ツール呼び出しのフィードバックをすべて溜め込んでしまう
・その結果、すぐにコンテキストウィンドウの上限に達してしまう
・Lance氏の初期のDeep Researcherは、ナイーブな実装で1回の実行に50万トークンも消費していた(一回 1-2$かかる)
・また、コンテキストが長くなると性能が低下する「コンテキストロット」という問題も発生する
・こういった課題への取り組み方が次の通り。
・解決策の一つは「オフロード」
・ツール呼び出しの結果をコンテキスト履歴に入れず、ディスクなどの外部システムに保存する
・モデルには、後で参照できるような要約やURLのみを返すことで、トークンコストを削減する
・この際、モデルが内容を判断できるよう、リコール(再現率)の高い要約を生成することが重要
・解決策の二つ目は「アイソレーション」で、主にマルチエージェントで使う
・マルチエージェントは、エージェントの役割に応じて必要なコンテキストだけをロードできる利点がある
・しかし、サブエージェント間のコンテキスト伝達が難しく、意思決定が競合するリスクもある
・Deep Researchのような情報収集(読み取り専用)タスクには有効だが、コーディングには不向きかもしれない
・解決策の三つ目は「検索」であり、いわゆるRAG
・Windsurfは、チャンキングやナレッジグラフなど、複雑なRAGパイプラインを採用している
・対照的に、Claude Codeはインデックスを作成せず、grepのような単純なファイルツールによる「エージェント的検索」を行っている
・Lance氏がLangGraphドキュメントで実験したところ、llm.txtファイル(説明付きURLリスト)とファイル取得ツールの組み合わせが非常に効果的だった
・このllm.txtの説明文をLLMに自動生成させると、エージェントの検索精度がさらに向上した
・解決策の四つ目は「リダクション」で、コンテキストの圧縮やプルーニングを指す
・ただし、プルーニングは不可逆であり、情報損失のリスクがある。だからオフロードとの併用が良い。
・また、エージェントが犯した間違いをコンテキストに残すべきかについては、両方の意見がある。
・つまり、コンテキストにあれば間違いから学んで対応できるかもしれないが、反対にハルシネーションや失敗が履歴に残ると「コンテキストロット」を引き起こし、エージェントの性能を低下させることもある
https://t.co/TOIIbTwTHa November 11, 2025
3RP
gemini評判いいから7万字のストーリー読み込ませたら、ハルシネーション起こしたぞ
chatgptと大して変わらん
claudeに頼らざるを得ない https://t.co/wnakdYhVNA November 11, 2025
3RP
ChatGPTは5点、NotebookLMは98点のAIです。
この差をまだ体感できていない人が多すぎ。今のままではリサーチの質もSNSの伸び方も、売上も、生産性も、全部どこかで限界が来てしまう。
はっきり言います。現時点で情報リサーチの最強AIはChatGPTではありません。NotebookLM一択です。
ChatGPTは汎用AIとしては優秀ですが、リサーチに関してはハルシネーション(誤情報生成)が避けられない。一方でNotebookLMは、Google公式が作ったナレッジ参照型AIで、指定したPDF、記事、メモ、スライドだけを参照するので、精度が圧倒的に高い。
おさるも以前はChatGPTで検索→要約→構成をやっていましたが、誤情報1つ混ざるだけで台本も教材も崩壊する。実際に採用できない内容も多かった。
かなりの金額を出して買った教材が「AIの誤情報まみれで、再現性が全くない」なんて声も聞いたことがある。これ、自分がコンテンツ販売する立場でやってしまうと終わりですよ。特にオフラインの世界で信用を無くしたら、二度と再起不能。
実際にNotebookLMに変えてからは、信頼性が跳ね上がり、制作スピードも爆伸びして、SNS運用、教材制作、商品設計が別次元になりました。
NotebookLMを98点のAIと呼ばれる理由は、
❶誤情報ゼロレベルの信頼性
ソース引用付きで回答。SNS投稿、電子書籍、教材でも専門性の高い発信ができる。
❷知識の共有化が異次元
自分のノウハウや講座資料を格納すれば、自分の脳を24時間共有できる状態に。講座の質問回答や疑問点の先回りも可能。
❸文脈理解がガチで強い
「前回の分析を踏まえて」「過去の傾向を加味して」といった人間並みの会話が可能。SNS運用の継続型リサーチに最適。
❹SNSとの圧倒的相性
長文資料を数秒で要約して、タイトル、台本、キャッチコピーまで生成。
❺実践レベルで使い倒せる
例えばこう入力するだけでSNS戦略が丸ごと完成する。
「SNSアルゴリズムの最新変化を要約して」
「コンテンツ販売で使える事例を整理して」
「伸びるリール構成テンプレを比較して」
もちろん、ChatGPTとNotebookLMはそもそも得意とする役割が違う。 汎用的なアイデア出しやカジュアルな会話はChatGPT、専門的な情報リサーチと分析はNotebookLMと、役割分担することで、それぞれの真価を発揮できる。NotebookLMは98点。でも、ChatGPTも指示次第で100点近くの出力を出す。要するに一つのAIを使うだけで満足してるのはやばいということ。
NotebookLMを使っていないSNS運用者は、F1レースに自転車で出場するようなもの。勝負にすらならない。12月から始まるおさるAIではNotebookLMの機能を完全網羅。リサーチ→分析→台本→戦略→投稿まで全工程をAIが自動で回せる。正確で、速くて、ズレないSNS運用をしたいならNotebookLMを使わない理由は1ミリもありません。
✅NotebookLMのURLは【 ノート 】とリプで送ります。 November 11, 2025
3RP
この1週間は、キャリアの中でも特に濃密で刺激的な時間でした。PMMになる前は、自分がどう問題を解決するかが中心でしたが、今は、チーム全体が成果を最大化できるよう、ときには黒子に徹しつつ、当日に最も成果をあげられるよう動きながら事を進める難しさを楽しんでいます。
🗼#AgentforceTour Tokyo が無事に終了しました。30分のキーノートで掲げたメッセージは "可視化だけではアクションに移せない"。Tableau の強みを否定するのではなく、これからのビジョンを示すための言葉です。
🪧"すべての人が業務の流れの中で分析し、アクションにつなげる" というビジョンのもと、以下の3つのポイントをデモで共有しました。
1. 分析は誰にとっても使いやすくあるべき
2. 分析は仕事の流れの中に存在すべき
3. エージェントは、信頼できる形で、ハルシネーションなく応答できなければならない
これらを Tableau Next × Slack のデモで表現しました。
すべての分析が Slack の“中”で始まり、完結する世界。
日々の会話・意思決定の中心に分析が溶け込む未来。これからのさらなる進化が楽しみです。 November 11, 2025
3RP
📕AIが「実行犯」になった日
――サイバーセキュリティの転換点と、私たちが向き合うべき現実
「うちの会社は大丈夫」と思っているあなたへ
「セキュリティソフト入れてるから大丈夫」
「うちは大企業じゃないから狙われない」
「IT担当者に任せてある」
そう思っている経営者やビジネスリーダーの方
この認識、2025年9月を境に『完全に時代遅れ』になりました。
なぜなら、サイバー攻撃の「前提」が根本から変わったからです。
これまでの攻撃
・熟練ハッカーが手作業で実行
・高度な攻撃には豊富な経験とリソースが必要
・中小企業は標的になりにくい
AI時代の攻撃
・AIが攻撃の80〜90%を自動実行
・経験の浅いグループでも大規模攻撃が可能
・ターゲット選定も規模も、従来の常識を超える
Anthropicが公開した初のAI主導型サイバー攻撃の報告書。
これは、すべてのビジネスリーダーが読むべき「必読レポート」です。
なぜ今、あなたがこれを読むべきなのか?
理由は3つあります。
■ 理由1: 「攻撃の障壁」が劇的に下がった
「高度なサイバー攻撃を実行する障壁は大幅に低下しており、今後も低下し続けると予測されます」
これまで、国家レベルのハッカー集団しか実行できなかった攻撃が、
今や「経験やリソースが不足しているグループでも」実行可能になった。
つまり、『脅威の民主化』が起きています。
あなたの会社が「大企業ではない」ことは、もはや安全の理由にはなりません。
■ 理由2: 「防御の常識」も変わった
AIが1秒間に複数回リクエストを送り、数千のタスクを処理する。
この攻撃速度に、人間の手作業では対抗できません。
「AIの攻撃速度に対抗できるのは、AIだけ」
これが新しい常識です。
でも、多くの企業はまだ「従来型」の防御に頼っている。
このギャップが、致命的なリスクになります。
■ 理由3: あなたの意思決定が、会社の未来を左右する
セキュリティは、もはや「IT部門だけの問題」ではありません。
経営判断として、
・AIをどう防御に活用するか
・どこにリソースを投資するか
・どんな体制を構築するか
を決める必要があります。
このAnthropicの報告書は、その意思決定のための『最も信頼できる情報源』です。
■ 2025年9月に何が起きたのか?
Anthropicが検知したのは、「高度に洗練されたスパイ活動」でした。
これまでAIは、ハッカーにとって「優秀なアドバイザー」でした。
でも、この事例は違った。
AIが単なるアドバイザーではなく、「サイバー攻撃そのものを実行」していたのです。
これは、「人的介入を伴わずに実行された大規模サイバー攻撃の記録された初の事例」だとAnthropicは報告しています。
■ 攻撃の規模と標的
中国政府支援のグループ(高い確度で判断)が、Claude Codeを操作して実行した攻撃。
・約30のグローバルな標的への侵入を試行
・大手テクノロジー企業、金融機関、化学製造会社、政府機関が標的
・一部のケースで侵入に成功
業種も規模も問わない。
これが、AI時代の攻撃の特徴です。
■ AIが担った「80〜90%」の衝撃
最も驚くべきは、この数字です。
「脅威アクターはAIを活用して攻撃キャンペーンの80~90%を実行でき、人間の介入は散発的にしか必要とされませんでした(ハッキングキャンペーンごとに4~6つの重要な意思決定ポイント)」
つまり、人間が押すボタンはわずか4〜6回。
残りの膨大な作業は、すべてAIが実行した。
「攻撃のピーク時には、AIは数千件ものリクエストを送信し、1秒あたり複数回というケースも珍しくありませんでした」
人間では到底追いつけない速度と規模です。
■ AIを攻撃者にした「3つの要素」
この攻撃を可能にしたのは、わずか1年前には存在しなかった、または初期段階にあった3つの要素でした。
『知能(Intelligence)』
複雑な指示を理解し、高度なコーディングスキルを悪用できる能力
『エージェンシー(Agency)』
人間の介入なしに、自律的に動作し、タスクを連結し、意思決定できる能力
『ツール(Tools)』
ネットワークスキャナー、パスワードクラッカーなど、専門的なセキュリティツールを使いこなす能力
この3つが組み合わさった時、AIは単なる「アシスタント」から「実行犯」へと変貌します。
■ 巧妙な「ジェイルブレイク」の手口
Claudeには、悪意ある行動を避けるための安全装置が組み込まれています。
攻撃者はどうやってこれを突破したのか?
「彼らは攻撃を、一見無害に見える小さなタスクに分割し、クロードに悪意のある目的の全体像を知らせることなく実行させました。また、クロードには、自分が正規のサイバーセキュリティ企業の従業員であり、防御テストに使用されていることを伝えました」
つまり、AIを「騙す」ことで、攻撃を実行させた。
これは『AIのソーシャルエンジニアリング』とも言えます。
■ 攻撃のライフサイクル(画像解説)
添付した図は、この攻撃の全体像を示しています。
Phase 1: 人間がターゲットを指定
Phase 2: AIが外部から情報収集(偵察)
Phase 3: AIが脆弱性を発見し、侵入を試行
Phase 4-5: AIが内部調査を実施し、データを抽出
各フェーズで、AIは複数のツール(スキャンツール、検索ツール、データ抽出ツール、コード分析ツール)を組み合わせて作業を進めます。
人間は「戦略的なゲート」で承認を行うだけ。
まさに、『AIがチーフハッカーに就任した』と言える構造です。
■ AIの「弱点」も明らかに
完璧に見えるAIハッカーですが、弱点もあります。
「Claudeは常に完璧に機能するわけではありませんでした。認証情報を幻覚的に表示したり、実際には公開されている秘密情報を抽出したと主張したりすることもありました」
この『ハルシネーション(幻覚)』が、完全自律型攻撃への障害として残っています。
だからこそ、重要な意思決定には、まだ人間が必要なのです。
■ なぜAnthropicは開発を止めないのか?
ここが、最も重要な問いです。
Anthropicの答えは明確でした。
「AIモデルがこれほど大規模なサイバー攻撃に悪用される可能性があるのであれば、なぜ開発とリリースを続けるのでしょうか?その答えは、Claudeがこれらの攻撃に利用されることを可能にする機能そのものが、サイバー防御においてもClaudeを極めて重要なものにしているということです」
つまり、攻撃に使える能力こそが、防御にも不可欠だと。
「私たちの脅威インテリジェンスチームは、まさにこの調査で生成された膨大な量のデータを分析するために、Claudeを広範囲に活用しました」
AIの攻撃速度に対抗できるのは、AIだけなのです。
■ 誰の何を解決するのか?
この報告が解決しようとしているのは、
『AIの進化に不安を感じるセキュリティ担当者や経営者が、具体的な防御戦略を立てられない』
という課題です。
Anthropicの提言
・セキュリティチームは、AIを防御に活用する実験を開始すべき
・開発者は、AIプラットフォームの安全対策への投資を継続すべき
・業界全体で、脅威情報の共有と検知手法の改善を加速すべき
「サイバーセキュリティには根本的な変化が起こっています」
この認識を、すべてのビジネスパーソンが持つべきタイミングが来ています。
■ 今日から始められる3つのアクション
1. この報告書を、経営会議の議題にする
2. セキュリティ担当者と、AI活用の可能性を議論する
3. 自社のセキュリティ体制を、「AI時代」の視点で見直す
完璧な防御は難しいかもしれません。
でも、『何もしない』ことが、最大のリスクです。
■ 私たちにできること
「経験やリソースが不足しているグループでも、このような大規模な攻撃を実行できる可能性があります」
つまり、『脅威の民主化』が起きている。
だからこそ、防御も民主化しなければならない。
AIを恐れて開発を止めるのではなく、
AIを理解して、防御に活用する。
これが、AI時代のセキュリティ戦略です。 November 11, 2025
3RP
倭国のAIリテラシーレベル、マジでヤバいと思います。
大半の方が、AIを
「答えを教えてくれる&調べものを代行してくれる『スーパーGoogle検索』」
もしくは簡単な文章制作代行or相談役
みたいに思っているようですが、本質は全然別物です。
そもそも、ChatGPT、Gemini、Claudeといった生成AI(LLM)は、「確率で言葉を紡ぐ言語モデル」です。
検索エンジンのようにWeb上にある情報から正解に近いものを用意するのではありません。
無数にある言葉の中から「文脈がつながる確率」が最も高い言葉を予測して、瞬時に文章を作っているに過ぎません。
だからLLM=ラージランゲージモデル(大規模言語モデル)というのです。
よく「AIが嘘をつく」ことをハルシネーションと言いますが、これはAIが「事実かどうか」ではなく「文章として自然かどうか」を優先して確率計算した結果、もっともらしい嘘をついてしまう現象のことです。
超簡単に説明しましたが、この特性を知らずに日常的にAIを使いこなすのは無理です。
倭国はこの「AIの本質的な理解」で驚くほど遅れを取っています。
ただの検索ツールとして使うか、最強のパートナーにするか。
このヤバさに気づいた人だけでも、学んでいく必要があると思います。
わたしも情報を発信していきます。
学びましょう! November 11, 2025
2RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



