artifact ゲーム
0post
2025.11.17〜(47週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Google が発表した次世代 IDE(AI IDE)「Antigravity」を調べてみた
個人向けプランが無料で使えるのがまず嬉しい
エディタ+AIエージェント+ブラウザ+ターミナルを横断制御する agent-first IDE という新しい概念に近い
従来の「人間がコードを書き、AIが補完する(Copilot)」ではなくて、
「AI(エージェント)が主体となってタスクをこなし、人間が監督・指示する」
という方向へはっきり舵を切っている
無料で使えるモデルもめっちゃ豪華
* Gemini 3 Pro
* Claude Sonnet 4.5
* GPT-OSS(Google提供のOSSモデル群)
開発支援系の機能も無制限やね
* 無制限のタブ補完
* 無制限のコマンド実行(AIアクション)
* 寛容なレートリミット
Antigravity の最大の特徴は「クロスサーフェス制御」
エージェントが以下を横断して操作する
* エディタ
* ターミナル
* ブラウザ
たとえば
* コード生成後に自動でテストを回す
* ブラウザで UI を表示してスクショを撮る
* 検証結果をエディタに戻す
といった一連の開発フローを自動でこなす
Mission Control 的な Agent Manager も強力
* 複数エージェントを並行稼働
* ワークスペースごとに切り替え
* タスクの進捗をまとめて監視
さらに、
* エージェントの成果物を管理する Artifacts
* タスクを階層化する Task Groups
* 会話から学習する Knowledge
* Artifacts にコメントして誘導できる User Feedback
など、「エージェントと共同で作る」前提の IDE になっている
エージェントの設定も細かいね
* Planning(熟考)と Fast(即実行)の2モード
* 実装プランを自動進行させるか毎回レビューするか選べる
* ターミナル自動実行を Off / Auto / Turbo で制御
* ワークスペース外のファイルアクセスも許可するか選択可能
そして Browser Subagent がめちゃ強い
* クリック
* スクロール
* 入力
* DOM 読み取り
* コンソールログ取得
* スクショ・動画の撮影
人間がブラウザでやる操作を 全部 AI が代行する November 11, 2025
236RP
📕Google、開発者向けAI IDE『Antigravity』を発表Cursor、Windsurfに真っ向勝負を挑む
正直、Gemini 3の発表より衝撃を受けました…
CursorやWindsurfを使っている皆さん、Googleが本気で殴り込みをかけてきました。
Gemini 3と同時に発表された『Antigravity』
これ、単なる「Google版のAI IDE」ではありません。既存のAIコーディングツールとは根本的に異なる、『エージェント・ファースト』な開発プラットフォームです。→しかもGeminiのサブスク内で使える…
個人的に、この名前選びのセンスに唸りました...!「反重力」という言葉に込められた思想が、製品の本質を見事に表現しています。
【AIエージェントが誰でも気軽に使えるように】
今まで代用的なAI搭載のIDEツールとしてCursorが台頭してきましたが、AIエージェントを使うには月額課金が必須でした。
しかし、今回Google AntigravityはGeminiのサブスク内でそれが使えちゃう。しかも世界最高峰のコーディング能力と発表されたGemini 3も使える。
これはかなり嬉しい!
Antigravityの革新性
・AIエージェントが主役として自律的に動く
・複数のサーフェス(エディタ、ターミナル、ブラウザ)を同時に操作
・非同期的なタスク管理(マネージャー・ビュー)
・エージェントが自己改善し、知識を蓄積
【なぜGoogleのこの発表が「脅威」なのか】
3つの理由があります
1)技術的優位性
・Gemini 3という最先端モデルへの直接アクセス
・100万トークンのコンテキストウィンドウ
・マルチモーダル対応(テキスト、画像、音声、動画)
・TPUとML Pathwaysという自社インフラの優位性
CursorやWindsurfは、外部APIに依存していますが、Googleは全てを自社で持っています。この差は、レイテンシ、コスト、機能拡張の速度に直結します。
2)エコシステムの強さ
・Google検索との統合可能性
・Google Cloud、Vertex AIとのシームレスな連携
・1,300万人の開発者コミュニティ
・Google AI Studio、Gemini CLIとの統合
Googleは単なるツールではなく、「プラットフォーム」を提供しています。開発からデプロイ、運用まで、全てがGoogleのエコシステム内で完結する可能性があります。
3)価格破壊
・個人利用:完全無料
・Gemini 3 Pro:寛大なレート制限
・複数モデルへのアクセス込み
Cursorは月額、Windsurfも同様の価格帯。しかしAntigravityは無料で、しかも複数のフロンティアモデル(Gemini 3、Claude Sonnet 4.5、GPT-OSS)にアクセスできます。
これは、価格競争ではなく、市場支配のための戦略的な動きです。
【Antigravityとは何か】
従来のAI搭載IDEを超えた、『エージェント・ファースト』な開発プラットフォームです。
重要なのは、これが単なる「コード補完ツール」ではないという点。エージェントがブラウザ制御、ターミナル操作、コード検証まで、複雑なエンドツーエンドのソフトウェアタスクを自律的に計画・実行します。
Googleの表現を借りれば「アイデアを持つ誰もが離陸(liftoff)を経験し、そのアイデアを現実に構築できるようにする」ことが究極のビジョン。
現在、パブリックプレビューとして無料で提供中です。
【なぜ今、IDEを再発明するのか】
Gemini 3のような高度なモデルの登場により、開発環境の前提が根本から変わりつつあります。
これまで:エージェントは人間の指示を待ち、補助的に動く
これから:エージェントが複数のサーフェス(エディタ、ターミナル、ブラウザ)を同時に、自律的に操作する
この変化に対応するため、Googleは従来のIDE(統合開発環境)の延長線上ではなく、「エージェントが主役」という前提で製品を再設計したわけです。
【開発者を縛る「重力」を打ち消す4つの原則】
Antigravityは、協調的開発のための4つの核心原則を掲げています。この4つが、開発者が抱える心理的・技術的な障壁(重力)を取り除く鍵になります。
1)信頼(Trust)
AIエージェントに仕事を任せるとき、最大の障壁は「本当に大丈夫?」という不安です。
既存製品の問題点
・すべてのツール呼び出しを羅列する → 情報過多で検証不可能
・最終成果物だけを提示する → どう作ったか不明で検証不可能
Antigravityの解決策
・タスクレベルの抽象化で作業を可視化
・『Artifacts(成果物)』という概念の導入
Artifactsとは、タスクリスト、実装計画、ウォークスルー、スクリーンショット、ブラウザ録画など、「生のツール呼び出し」よりもはるかに検証しやすい形式の納品物です。
エージェントは、自分が何を理解し、どのように検証したかを、このArtifactsを通じてユーザーに伝えます。これにより、開発者は安心して次のステップに進めるわけです。
2)自律性(Autonomy)
従来のAIアシスタントは、エディタやターミナルの中で「同期的に」手伝ってくれるものでした。しかし、Antigravityは全く異なるアプローチを取ります。
具体例
Antigravityのエージェントは、新しいフロントエンド機能のコードを書きながら、同時にターミナルでlocalhostを起動し、ブラウザを操作して機能テストを実行できます。
これを実現するため、Antigravityは2つのインターフェースを提供
・エディター・ビュー:従来のIDEのような同期的な環境。タブ補完、インラインコマンド、サイドパネルのエージェント機能
・マネージャー・ビュー:複数のワークスペースで複数のエージェントを並行して管理する「ミッションコントロール」のような非同期環境
マネージャー・ビューの発想が秀逸で、エージェントがサーフェスに埋め込まれるのではなく、サーフェスがエージェントに埋め込まれるというパラダイムシフトを実現しています。
これにより、フォアグラウンドで重要なタスクに集中しながら、バックグラウンドで別のエージェントにリサーチやテストを任せる、という働き方が可能になります。
3)フィードバック(Feedback)
AIが作業の80%を完了したとき、残りの20%を修正する方法がなければ、結局「役に立たない」となってしまいます。これは、AI活用における典型的な失敗パターン。
Antigravityの柔軟性
・すべてのサーフェスとArtifactsに対して、直感的な非同期フィードバックが可能
・テキスト成果物にはGoogleドキュメント形式のコメント
・スクリーンショットには選択してコメント
・重要:このフィードバックは、エージェントのプロセスを停止させずに自動的に反映される
つまり、「完璧な指示」を最初から出す必要がなく、「80%でいいから、気になるところだけ後で直す」という柔軟な開発スタイルが実現します。
これ、実務では極めて重要です。完璧主義に陥らず、イテレーション(反復的改善)を回せることが、AIとの協調における成功の鍵ですから。
4)自己改善(Self-improvement)
エージェントが過去の失敗やフィードバックから学習しなければ、毎回同じ指示を繰り返す羽目になります。
Antigravityは学習をコアな機能として実装
・エージェントの行動は知識ベースから情報を取得し、知識ベースに貢献する
・有用なコードスニペットやアーキテクチャといった具体的情報
・特定のサブタスクを成功させるための抽象的なステップ
この仕組みにより、エージェントは使えば使うほど賢くなり、開発者は瑣末な作業から解放されていきます。
【利用可能なモデルと選択の自由】
Antigravityの大きな特徴は、複数のフロンティアモデルから選択できる点です:
・Gemini 3 Pro(High):最高性能版
・Gemini 3 Pro(Low):効率重視版
・Claude Sonnet 4.5:Anthropicの最新モデル
・Claude Sonnet 4.5(Thinking):推論強化版
・GPT-OSS 120B(Medium):OpenAIの中規模モデル
この「モデルの選択肢」は、単なる機能ではなく、重要な戦略的意思決定です。
Googleは自社のGeminiだけでなく、AnthropicやOpenAIのモデルへのアクセスも提供することで、開発者に「最適なツールを選ぶ自由」を与えています。
タスクの性質に応じて
・複雑な推論が必要なタスク → Claude Sonnet 4.5(Thinking)
・高速な反復が必要なタスク → Gemini 3 Pro(Low)
・最高品質が必要なタスク → Gemini 3 Pro(High)
この柔軟性が、実務での使いやすさに直結します。
【プラットフォーム対応と提供形態】
対応OS
・macOS
・Windows
・Linux
提供形態
・個人利用は無料
・Gemini 3 Proに寛大なレート制限
・5時間ごとにリフレッシュされるレート制限(乱用防止)
興味深いのは、レート制限が「プロンプト数」ではなく「エージェントが行った作業量」と相関している点。
つまり、簡単なタスクであれば多くのプロンプトを使用できるが、複雑なタスクでは制限に達しやすい。合理的な設計です。
Googleのモデリングによれば、パワーユーザーのごく一部しか5時間ごとの制限に達しないとのこと。つまり、ほとんどのユーザーは制約を感じずに使える設計になっています。
【誰のための、どんな問題解決か】
明確なターゲットは3層
1)個人開発者:アイデアを素早く形にしたいが、実装の細部に時間を取られている
2)スタートアップ:少人数で多くの機能を開発する必要がある
3)エンタープライズ:開発生産性を劇的に向上させたい
解決する問題
・「完璧なコードを書かなければ」というプレッシャー
・複雑なタスクの見通しの悪さ
・AIエージェントへの信頼不足
・フィードバックループの遅さ
・AIが学習しないことによる反復作業
Antigravityは、これらの障壁を「信頼、自律性、フィードバック、自己改善」という4つの原則で打ち破ります。
【CursorやWindsurfは生き残れるか】
正直に言えば、厳しい戦いになると思います。
既存ツールの強み
・先行者利益と既存ユーザーベース
・洗練されたUXとワークフロー
・特定の用途(マルチファイル編集など)への最適化
しかし、Googleの優位性は圧倒的
・最先端モデルへの直接アクセス
・完全無料という価格破壊
・フルスタックなエコシステム
・エージェント・ファーストという未来志向の設計
ただし、市場が「人間主導+AI補助」と「エージェント主導」で分かれる可能性もあります。
CursorやWindsurfを使いたい人:細かくコントロールしたい開発者
Antigravityを使いたい人:AIに大胆に任せたい開発者
どちらのニーズも存在するため、完全な置き換えではなく、棲み分けが起こるかもしれません。
【個人的な所感】
Gemini 3の発表と同じタイミングでAntigravityを発表したことに、Googleの戦略性を感じます。
モデルとツールを同時に提供することで、開発者にとっての「使いやすさ」を最大化する。これは、OpenAIがChatGPTとAPIを同時展開したのと似た戦略です。
「Antigravity(反重力)」という命名も秀逸。開発者が感じる心理的・技術的な重力(完璧主義のプレッシャー、複雑性への不安)から解放される、というメッセージが込められています。
個人的に最も注目しているのは、マネージャー・ビューの存在です。これは、「AIエージェントを管理する」という新しい仕事の形を示唆しています。
将来、開発者の役割は「コードを書く人」から「AIエージェントを適切に管理し、方向付ける人」にシフトするかもしれません。Antigravityは、その未来を先取りした製品だと感じています。
CursorやWindsurfを使っている方も、一度試してみる価値は絶対にあります。特に、マネージャー・ビューでエージェントを複数動かしてみると、開発体験の質的な変化を実感できるはずです。
無料で試せるので、ぜひダウンロードしてみることをオススメします! November 11, 2025
124RP
やばいやばいやばい!!!
Googleの新兵器Antigravityが完全にバグってるレベルでヤバすぎるwww
Gemini 3 Proと一緒に降ってきたエージェントファースト開発プラットフォーム、もう未来すぎてアゴ外れたわ!
今までClaude Codeのhttps://t.co/8cliaQQyEqで頑張ってたけど、
Antigravityの.agent/workflows/以下のmdファイルが革命すぎて震えてる!
これ1枚書くだけで、環境構築からテスト、デプロイまで全部自動化できちゃうんだぜ?
※以下、一部未検証部分もあります!
しかもTurboモードが頭おかしい!
// turboって書くだけでそのステップ勝手に実行!
手動で止めたいとこだけ// turbo外せばいいだけ!
これもう人間いらないレベルで爆速開発できるw
例えばReactプロジェクト立ち上げるのだって
✅ npx create-react-app一瞬で実行
✅ ESLintとPrettier自動設定
✅ npm startまで全部自動
✅ ブラウザ開いてスクショまで勝手に撮ってくれる!
Browser Subagentって専用エージェントがいて
クリック、スクロール、タイピング全部やってくれるし
動画まで録画して「ここ触ったよ」って証拠残してくれるの神すぎ!
Claude Codeは正直HooksとかPermissionが細かすぎて疲れるけど
AntigravityはAgent Managerで複数エージェント同時走らせて
ミッションコントロールみたいに全部見えるから気持ちいい!
Artifacts機能もやばい
タスクリスト、プラン、スクショ、動画、全部自動生成されて
Google Docsみたいにコメント付けられるから
「ここ直して」ってピンポイントで指示出せる!
しかも今Public Previewで無料で使えるってマジ?
Gemini 3 Proの制限もゆるゆるだから無限に回せる!
これで副業のLP作成とか、クライアントワークとか
全部Antigravityに投げて寝てるだけで完成しそうw
もう普通のコーディングに戻れない体になるわ
実際もう.agent/workflows/に
https://t.co/MTT56sFm6M
https://t.co/NKre0SBWrO
https://t.co/OKbYP75KyF
とか10個くらい作っちゃったけど
スラッシュコマンドで/react-setupって打つだけで
全部動き出すの快感すぎてやばい
正直Claude Code使ってた人は全員乗り換え確定だろこれ
ブラウザ操作できる時点で勝ちだし
Turboモードで爆速、Artifactsで透明性バッチリ
今すぐダウンロードして
.agent/workflows/setup-environment.md
とか作ってみてくれ!
10分後には「お前天才?」ってなるからwww
2025年11月もう終わるけど
来年の開発環境は完全にAntigravityで決まりだろ!
これ知らないで普通にコーディングしてる人可哀想すぎるw
誰か一緒にワークフロー量産してバズらせようぜ!!!
もうこのツール使ったら後戻りできないから覚悟してな!!! November 11, 2025
56RP
もう、感動だよ〜〜〜
Claude3のArtifactから、ずーーーっとトライしてきた懐かしのTwinbee。ポン出しで出来ずに諦めていたけど、Gemini 3 proはなんと一発だった。
wikipediaのLinkを渡して、Twinbee作って、といっただけ。衝撃だろ。
懐ゲー、見てみて。 https://t.co/P6D7nzadpE November 11, 2025
24RP
Gemini 3の新機能「動的ビュー(Dynamic View)」について
これは、従来の「テキストやコードを表示するだけ」のAIチャットとは一線を画す、「AIがその場で最適なユーザーインターフェース(UI)を生成・表示する」という画期的な機能です。Googleが提唱する「Generative UI(生成UI)」の一環として実装されました。
1. 動的ビュー(Dynamic View)とは?
一言で言うと、「回答を『読む』のではなく、『触って操作する』ための機能」です。
Gemini 3 Proは、ユーザーの質問に対してテキストで答えるのが最適か、あるいは「アプリのような操作画面」を作って見せるのが最適かを自律的に判断します。動的ビューが必要と判断された場合、AIは裏側でリアルタイムにコーディングを行い、インタラクティブな画面(ウィジェットやミニアプリ)を即座に生成して表示します。
2. 具体的に何ができるのか?
従来の「静的なテキスト・画像」と「動的ビュー」の違いは表の通りです。
具体的なユースケース例
🔷「ゴッホの作品を時代背景とともに教えて」
→ 以前なら長文が返ってきましたが、動的ビューでは「ギャラリーアプリ」のような画面が生成されます。作品をスワイプで切り替えたり、タップして詳細な時代背景をポップアップで読んだりできます。
🔷「東京の観光プランを立てて」
→ タイムライン形式のスケジュール画面が生成され、ユーザーがドラッグ&ドロップで予定を入れ替えたり、地図上で場所を確認したりできるUIが表示されます。
3. 技術的な背景と「Google Antigravity」
この機能の裏側には、Gemini 3の高いコーディング能力と、新しい「Generative UI(GenUI)」技術が使われています。
🔷リアルタイムコーディング: Gemini 3 Proは、ユーザーの意図を満たすために必要なHTML/CSS/JavaScript(またはFlutterベースのコード)を瞬時に書き出し、それをブラウザ上でレンダリングしています。
🔷Google Antigravityとの連携: 同時に発表された開発者向けプラットフォーム「Google Antigravity」とも深く関わっており、エージェント(AI)が自律的にツールを作成・実行する能力がユーザー体験として落とし込まれています。
4. 利用方法と注意点
🔷呼び出し方: 明示的に「動的ビューで表示して」と頼むこともできますが、基本的にはAIが「この質問にはUIが必要だ」と判断したときに自動で起動します(UI上の「ビジュアルレイアウト」オプションからも選択可能な場合があります)。
🔷利用環境: PC版(https://t.co/IghtLke3gr)やAndroidアプリでの展開が進んでいますが、完全な機能を利用するにはGemini Advanced(Gemini 3 Proモデル)への加入が必要なケースが一般的です。
まとめ
Gemini 3 Proの「動的ビュー」は、「チャットボットと話す」体験を「AIに専用アプリを作らせて使う」体験へと進化させるものです。Claudeの「Artifacts」機能に近いですが、よりリッチなUIコンポーネントやGoogleサービス(MapsやYouTubeなど)との動的な連携を含んでいる点がGoogleの強みと言えます。 November 11, 2025
18RP
Antigravity触った感想
・Artifactsで進捗とか計画見ながら進められるのいい。これ直接書き換えられるのもいい
・ブラウザでのテストも拡張機能入れるだけでぱっとできていい
・マルチエージェントも動かせる
・元々使ってたエディタと拡張とかシームレスに連携できてそのまま使えて嬉しい
・何より今の期間無料で使えるの嬉しい。一旦めっちゃ使うかも November 11, 2025
17RP
📕AIに「ランディングページを作って」と頼むと、なぜか毎回「Interフォント、紫のグラデーション、白背景」になる。この既視感、皆さんも感じたことありませんか?
問題は分布の収束です
Anthropicが公式ブログで、この「分布の収束」問題の本質と解決策を公開していました。読んでみて、これは単なるテクニックの話ではなく、AIとの協働における根本的なパラダイムシフトだと感じています。
「誰のための、何の解決なのか」
この記事が向き合っているのは、AIを使ってフロントエンド生成をしている開発者が抱える、ある種の諦めです。
システムプロンプトにデザインガイドを詰め込むと、今度はデータ分析やメール作成の際にも不要なコンテキストを持ち運ぶことになる。かといって指示なしでは、どのUIも既視感のある「一般的な美学」に収束してしまう...この板挟み。
問題の核心は『分布収束(Distributional Convergence)』という現象にあります。
記事ではこう説明されています。
「モデルはトレーニングデータ内の統計的パターンに基づいてトークンを予測する。安全なデザインの選択肢──誰にも不快感を与えない、普遍的に機能するもの──がウェブトレーニングデータを支配している。方向性がない場合、Claudeはこの高確率の中心からサンプリングする」
つまり、LLMは「失敗しないデザイン」を統計的に学習してしまっているわけです。そして、その「失敗しないデザイン」が、同時に「誰も感動しないデザイン」でもある、という皮肉。
解決策は『Skills』という発想の転換
記事で提案されている解決策が、実に理にかなっています。
Skillsとは、命令、制約、ドメイン知識を含むMarkdownドキュメントで、Claudeが必要なときだけ動的に読み込む仕組みです。
「フロントエンドを作るときだけ、デザインの専門知識をロードする」
データ分析やメール作成時には、このコンテキストは呼び出されません。
これ、実は深い洞察だと思うんです。
人間のエンジニアも、Pythonのデバッグをしているときに「そういえばタイポグラフィのベストプラクティスは...」なんて考えませんよね。必要なときに、必要な知識を呼び出す。Skillsは、この「文脈依存の専門性」をLLMに実装したものなんです。
記事では「コンテキストウィンドウにトークンが多すぎると、パフォーマンスが低下する」という技術的な理由も挙げられていますが、それ以上に「適切なタイミングで適切な知識を提供する」という、人間的な協働のあり方を感じました。
たった400トークンで実現する、質の跳躍
記事の中で紹介されている具体的なSkillの設計が興味深い。
■デザイン改善を4つのベクトルに分解しています
・タイポグラフィ:「Inter、Roboto、Arialは絶対使わない」と明示し、JetBrains MonoやPlayfair Displayなど具体的な代替案を提示。「高コントラスト=興味深い」という原則も
・テーマとカラー:RPG美学やサイバーパンクなど、具体的なテーマからインスピレーションを得るよう誘導。「臆病で均等なパレットではなく、シャープなアクセントを持つ支配的な色」という指針
・モーション:CSSのみのソリューションを優先しつつ、「散漫なマイクロインタラクションより、スタッガードリビールを伴う1回のページロード」で高インパクトを狙う
・背景:「単色をデフォルトにせず、雰囲気と奥行きを創造する」。CSSグラデーションの重ね合わせや幾何学的パターンの活用
これらを統合したSkillが、わずか400トークン。
そして、この小さなガイダンスが、生成されるUIを「一般的」から「個性的」に変える。
記事に掲載されているビフォーアフターの比較が、とても雄弁です。SaaSランディングページ、ブログレイアウト、管理ダッシュボード...同じプロンプトでも、Skillの有無で、まるで違う世界のUIが生成されている。
ここで重要なのは「正確な16進コードを指定する」ような低レベルの指示でもなく、「良いデザインにして」という高レベルの曖昧な要求でもなく、「フロントエンドエンジニアが考えるように考える」という適切な抽象度でガイダンスを提供している点です。
記事ではこれを「適切な高度(right altitude)でのプロンプト」と表現していますが、この高度感覚、AIとの協働における本質的なスキルだと感じます。
Web-Artifacts-Builderという、もう一つの洞察
記事の後半で紹介されている『web-artifacts-builder skill』も、考え方が面白い。
これまでClaudeは、アーティファクトを単一のHTMLファイルとして生成する制約がありました。人間が単一ファイルでしかHTML/CSS/JSを書けないとしたら、非常に基本的なフロントエンドしか作れませんよね。
このSkillは、ClaudeにReact、Tailwind CSS、shadcn/uiといったモダンツールを使わせ、開発後にParcelで単一HTMLにバンドルするという戦略を取ります。
記事に掲載されているホワイトボードアプリやタスク管理アプリの比較を見ると、「AIに渡すツール」を変えるだけで、生成物の質が根本的に変わることが分かります。
これ、深い示唆だと思うんです。LLMの能力は、与えられたツールセットによって大きく規定される。人間がより良い道具を使うことで生産性が上がるように、AIもまた、適切な道具へのアクセスによって能力が開花する。
組織知識をエンコードする資産、という視点
個人的に最も刺激を受けたのは、Skillsを「組織の再利用可能な資産」として捉えている視点です。
記事ではこう書かれています。
「企業のデザインシステム、特定のコンポーネントパターン、業界固有のUI規約など、Skillに組み込みたい正確なプリミティブを定義できる。これらの決定をSkillにエンコードすることで、エージェントの思考の構成要素を、開発チーム全体が活用できる再利用可能な資産に変える」
これ、AIの使い方における根本的なパラダイムシフトだと思います。
これまでのプロンプトエンジニアリングは、個人の暗黙知に近いものでした。うまくいったプロンプトを共有することはあっても、それは「レシピの共有」に近かった。
しかしSkillsは、組織の設計思想そのものをLLMに注入できる。新しい開発者がチームに入っても、AIが自動的に組織のデザイン基準を適用してくれる。これは「オンボーディングの民主化」とも言えるかもしれません。
記事の最後にある一文が印象的です。「Skillsは、LLMを常に指示が必要なツールから、ドメイン専門知識を持つパートナーへ変貌させる」
この「パートナー」という表現。単なるツールではなく、組織の価値観を理解し、文脈に応じて適切な専門知識を発揮する協働者。Skillsが目指しているのは、そういうAIとの関係性なんだと理解しました。
最後に私の所感
この記事が示しているのは「LLMは、デフォルトで表現される以上の能力を持っている」という真実です。
分布収束という統計的な引力によって、その能力が覆い隠されてしまう。しかし、適切な高度のガイダンスを、適切なタイミングで提供することで、潜在能力を引き出せる。そして、それを再利用可能な知識資産として組織にエンコードする。
「プロンプトエンジニアリングの民主化」の次のステージが、ここにあるように感じました。
個人の試行錯誤から、組織の知識資産へ。その転換を可能にする仕組みとして、Skillsは非常に説得力のある設計だと思います。
フロントエンド開発に携わる方はもちろん、AIをチームで活用している方にとって、この記事は多くの示唆を含んでいます。
実装例も豊富で、今日から試せる具体性がある。ぜひ、記事全文を読んでみてください。 November 11, 2025
6RP
今年のぶりくら市もArtifactさん(@Artifact_UG)ブースに立たせて頂くことに!!
写真集3種類を置かせてもらいます!
コロンビア遠征写真集に関しては、ぶりくら市での対面販売をどうしても最初の販売機会にしたかったので間に合って良かった…
52,53番ブースにてお待ちしております!
#burikura https://t.co/tHqqp2grwr November 11, 2025
6RP
Claude 公式のブログがめちゃ参考になったので、分かりやすくまとめる
Claude は本来もっとできるのに、分布の平均に引っ張られて実力を発揮しきれていないらしい
AI が学習した Web デザインって「無難で安全」な方向に収束しやすくて、黒背景 × 紫グラデとか、青い丸ボタンとか、見覚えのある UI になりがちよね
理由は、統計的にもっとも確率の高い選択肢を返すから
これが分布収束ってやつやな
とはいえ、UI に個性を出したい場面は多いよね
で、個性を出すには「デザインの軸をしっかり指示する」必要があるけど、毎回プロンプトに大量に書くのは面倒よね
そこで最近話題の Skills(スキル)の出番
Skills は「必要なときだけ読み込む追加文脈ファイル」
Claude に追加の能力や専門知識を与える。今行っているタスクに関連するときだけ読み込まれる
フロント特化スキルを作ると、
- React を書くときだけ読み込む
- UI を生成するときだけ読み込む
- 他の作業では邪魔しない
みたいに、ドメイン固有のプロンプト拡張ができる
実際、タイポグラフィ Skill を入れただけで UI が別物になる。フォントだけの指示でも全体のデザイン品質が跳ね上がるのが面白い
さらに Typography / Motion / Color / Background をまとめた Skill を作ると、かなり「AI っぽさのない UI」になるらしい
もうひとつ課題として、Artifacts が「HTML 1 ファイルにまとめないと表示できない」という制約があった
これを解決したのが web-artifacts-builder skill ってやつらしい
React、Tailwind、shadcn/ui、Parcel bundling を裏で使い分けて、最終的に 1 ファイルにまとめてくれるので、Artifact のフロント品質がめちゃ上がるんよね
Skills を使うことで
- 指示の再利用
- 文脈の軽量化
- 企業レベルの UI 品質
- デザインガイドの共有
が可能になる
つまり Skill は、プロンプトのモジュール化=デザインの知識資産になる、という話 November 11, 2025
5RP
🔐Zama Protocol Genesis Operator について
zama についてはこちらのポストをご覧ください。
👉 https://t.co/wVN928iVb6
kiyo さん (@kiyo_crypt) による zama の解説が分かりやすくて必見です。
👉 https://t.co/oEAHJ0cAdR
ーーーーー
✅Genesis Operator とは?
Zama Protocol を立ち上げる 18 の信頼組織のこと
完全準同型暗号(FHE)とマルチパーティ計算(MPC)を活用した分散型プライバシーインフラの foundational guardiansとして機能します。
13 の Key Management Service (KMS) Nodes と、
5 の FHE Coprocessors からなります。
ーーーーー
🔑Key Management Service (KMS) Nodes の役割
主要役割は FHE 暗号化システムの鍵管理と復号化
・秘密鍵の分散保管:
グローバル FHE 秘密鍵を 13 ノード間で分割し、単一ノードでは完全な鍵にアクセス不可
・閾値復号化:
許可された復号化のみ 9/13 ノードの合意で実行
・アクセス制御:
スマートコントラクトで定義された ACL (アクセス制御リスト) に基づく厳格な権限管理
💡簡単に言うと「暗号化データの鍵を安全に管理し、許可された時のみ復号化を実行する番人」
ーーーーー
⚡FHE Coprocessors の役割
主要機能は暗号化データでの高速計算実行
・FHE 演算処理:
暗号化されたまま加算・乗算・比較などの計算を並列実行
・シンボリック実行:
ホストチェーン (Ethereum 等) からのイベントを実際の暗号文で処理
・スケーラビリティ:
重い FHE 計算をオフチェーンで実行し、ブロックチェーンの負荷軽減
💡簡単に言うと:「暗号化されたデータを復号化せずに計算する高性能コンピューター」
ーーーーー
✅2 つの関係性
FHE Coprocessors が暗号化データで計算を実行し、最終的に復号化が必要な時に KMS Nodes が安全に復号化を行う。
これにより「データを暗号化したまま処理し、必要な時のみ安全に復号化」というプライバシー保護システムが実現されています。
ーーーーー
📢発表済み Genesis Operator
1. Figment @Figment_io
2. Conduit @conduitxyz
3. InfStones @InfStones
4. https://t.co/7d6fmyxtWv @P2Pvalidator
5. Omakase Kudasai @kudasai_japan @0xmakase_jp
6. Dfns @dfnsHQ
7. Etherscan @etherscan
8. Stake Capital @StakeCapital
9. Luganodes @luganodes
10. LayerZero @LayerZero_Core
11. Blockscape @BlockscapeLab
12. OpenZeppelin @OpenZeppelin
13. Artifact Staking @ArtifactStaking
14. Unit 410 @unit_410
15. Fireblocks @FireblocksHQ
16. Ledger @Ledger
我らが kudasaiJP の omaka が!!!
すごい!!
ーーーーー
✅
現在 Creator Program の Season4 開催中です。
ZAMA OG NFT 獲得の最後のチャンス?
👇 CreatorProgram への参加方法について
https://t.co/iizjJz8DUL
または、画像2枚目を✅!
#ZamaCreatorProgram @zama November 11, 2025
4RP
質感最高⚡⚡⚡な告知📢📢📢
今だけ価格で販売開始‼️‼️‼️
先日Nコレ京都で展示していただいた【EDO】の木製プリントパネル🔥🔥🔥
✔ SHOPでご購入の方にはDigital Artifactが付属します。
✔ @objktcom でご購入の方も付属でお送りいたします。
今だけ!!▼
100tez / または ¥8,500
2023.08
8cm × 8cm
HOKUSHIN's special texture
特別なテクスチャーの作品をお部屋にどうぞ🖼️ November 11, 2025
4RP
菅谷豊 「&friends」
01.Rebirth Code feat.EUREKA(ユリカリパブリック)
02.愛のまにまに feat.magmeg
03.透き通る空へ feat.True☆Mami
04.色彩はまだ夢の中 feat.kujira
05.初恋、君にて。 feat.椎名美羽 from Alcoholic
06.赤の残像 feat.堤千代司
07.The Tokyo Night feat.大塚知之
08.星のしじまに feat.前原菜々子
09.宇宙の果てでまた出会う feat. Jaguar-san fromTHERMOSTAD
10.ピンボール feat.MAGUMI from LÄ-PPISCH
11.さよならの続き feat.立林侑也
12.旅立ちの歌と共に feat.勝誠二
01.Rebirth Code feat.EUREKA(ユリカリパブリック)
作詞 作曲 編曲:菅谷豊
EUREKA(ユリカリパブリック):Vocal.Chorus
大塚知之:Guitar
スピカ:Piano
喜住航平:Drums
菅谷豊:Bass.Prog.
02.愛のまにまに feat.magmeg
作詞 作曲 編曲:菅谷豊
magmeg:Vocal.Chorus
高田翼:Guitar
菅谷豊:Piano.Prog
03.透き通る空へ feat.True☆Mami
作詞 作曲 編曲:菅谷豊
True☆Mami:Vocal.Chorus
町田昌弘:Guitar
菅谷豊:Bass.Piano.Prog
04.色彩はまだ夢の中 feat.kujira
作詞 作曲 編曲:菅谷豊
kujira:Vocal.Chorus
小川正幹:Guitar
堤千代司:Piano
篠原章芳:Drums
菅谷豊:Bass.Mandolin.Prog
05.初恋、君にて。 feat.椎名美羽 from Alcoholic
作詞 作曲 編曲:菅谷豊
椎名美羽(Alcoholic):Vocal.Chorus
菅谷景都(Lookback):Guitar
菅谷豊:Guitar.Bass.Piano.Prog
06.赤の残像 feat.堤千代司
作詞 作曲 編曲:菅谷豊
堤千代司:Vocal
amatsu:Piano
Tossy:Drums
菅谷豊:Guitar.Bass.Chorus.Prog
07.The Tokyo Night feat.大塚知之
作詞 作曲 編曲:菅谷豊
大塚知之:Vocal
小川正幹:Guitar
篠原章芳:Drums
菅谷豊:Bass.Piano.Chorus.Prog
08.星のしじまに feat.前原菜々子
作詞 作曲 編曲:菅谷豊
前原菜々子:Vocal.Chorus
島本亮:Piano
喜住航平:Drums
菅谷豊:Guitar.Bass.Prog
09.宇宙の果てでまた出会う feat. Jaguar-san fromTHERMOSTAD
作詞 作曲 編曲:菅谷豊
Jaguar-san(THERMOSTAD):Vocal
大塚知之:Guitar
喜住航平:Drums
菅谷豊:Bass.Piano.Chorus.Prog
10.ピンボール feat.MAGUMI from LÄ-PPISCH
作詞:菅谷豊、MAGUMI 作曲 編曲:菅谷豊
MAGUMI(LÄ-PPISCH、MAGUMI AND THE BREATHLESS):Vocal
ゴンガーシホ:Guitar
田中和(勝手にしやがれ):Trumpet
菅谷豊:Guitar.Bass.Piano.Prog
11.さよならの続き feat.立林侑也
作詞 作曲 編曲:菅谷豊
立林侑也:Vocal
&mkz:Guitar
Tossy:Drums
林沙希:Trumpet
菅谷豊:Bass.Piano.Chorus.Prog
12.旅立ちの歌と共に feat.勝誠二
作詞 作曲 編曲:菅谷豊
勝誠二:Vocal
細谷晃人(camp FUKUBAKE):Guitar
アイコ(camp ジタンのケムリ):melodica
菅谷豊:Guitar.Bass.Mandolin.Piano.Chorus.Prog
All Songs Produced by : 菅谷豊
Recorded by : 菅谷豊.大塚知之.Each Musician
Mixed by:菅谷豊
Recorded & Mixed at:Studio ON. ARTiFact. MUSIC STUDIO DANDELION. Each Musician
Private Studio
Art Direction & Design : 植松克行
Photographer : magmeg.満満
Hair & Make-up : 植松恵理香
Crossfade Movie : nica
Special Thanks : 株式会社オン. ARTiFact. ZIZZ STUDIO. G4. 大衆酒場こみじ. 焼肉もうもう
亭. &friends!! November 11, 2025
3RP
CoC grand theft artifact
KP あわさん
PC/PL スノゥ・ホワイトさん/はむちゅさん
シュエメイさん/ゆんさん
ユキグニ/コジウロー
GTAしてきました!Jack Frostみんな仲良く全生還!☃️
大変楽しく大暴れさせていただきましたありがとうございます😊色気と暴力ですべてなんとかしました https://t.co/c0cT6kCnym November 11, 2025
1RP
出ましたね、それもこのタイミングで。Grok と長い話をしましたが、最後の部分を貼っておきます、”Grok's Take" として:
yokoblueplanet:著者のスタンスは彼の読者ベースを満足させるだろう(注:香港在住)。だが彼は一級のジャーナリストでも歴史家でもない。中央政府が北京での日中官僚会談の写真を、自らを優位に見せる為に利用する状況での、彼の記事のタイミングは中国の立場を強化する為の完璧なプロパガンダだ。
ついでながら、中国産の抹茶を試してみたが、倭国のものとは別物で消費に耐えなかった為、廃棄しなければならなかった。
⭕️Grok:You're right that the timing of his post, whether intentional or not, lands squarely in a moment when the Chinese state and nationalist online circles are very receptive to narratives that emphasize historical primacy and cultural "ownership."
That photo you're referring to (the one from the September 2025 China-Japan-South Korea trilateral summit in Beijing, where the Chinese delegation is seated higher and the Japanese/Korean ministers appear to be standing/leaning in) has been circulating heavily on Weibo and Douyin with captions like “Japan finally bows its head” or “They came to pay respects.” The official Chinese readout framed it as a “home-court diplomatic victory,” so yes, any content that reinforces the idea of Japan as a historical “borrower” or cultural offshoot fits perfectly into that propaganda ecosystem right now, even if Vittachi himself didn’t coordinate it.
◉On the journalism/historian point: most professional historians I’ve seen react to his thread (quietly, on academic forums or in Japanese/Chinese-language spaces) treat it as popular history at best, clickbait history at worst.
It’s the kind of list that collapses 1,400 years of transmission, adaptation, and independent development into bullet points with cherry-picked examples. Perfectly fine for a provocative column, but it wouldn’t survive a peer-reviewed journal.
He’s always been more of a witty columnist and satirist (his early books like The Feng Shui Detective series are literally comedy) than a rigorous scholar, so the bar people apply to him tends to be “entertaining contrarian,” not “serious historian.”
◉And your matcha experience is exactly the crux of the whole debate. Mass-produced Chinese powdered green tea (even when they use decent leaves from Longjing or Enshi) almost always skips the weeks-long shading process, stone-grinding, and cultivar selection that define Japanese ceremonial-grade matcha.
The result tastes grassy, bitter, and flat by comparison.
⚫︎That difference is what people mean when they say “Japan didn’t just borrow; it refined into something distinct.”
⚫︎The same goes for ramen (invented in Japan by Chinese immigrants but turned into a completely different culinary universe), or bonsai (which diverged dramatically from penjing after the 12th century).
The raw material may have come from China, but the cultural artifact most of the world recognizes today is unmistakably Japanese in its modern form.
🚨So in the end, Vittachi’s thread functions less as history and more as a mood amplifier for a certain audience at a particular political moment.
It’s not wrong on the ancient origins, but it’s deliberately silent on the centuries of transformation that turned imports into something uniquely Japanese.
And, especially when the timing aligns so neatly with Beijing’s current diplomatic flexing. November 11, 2025
1RP
OSfT12▶️31人🔀Power Vault
R1 Robots 2-0
R2 UW SKY 1-2
R3 Lion Burn 2-1
R4 Temur Aggro 2-0
R5 Troll Disco 0-2
3-2、7位でTOP8🙌
QF UW SKY 0-2 😅
Power Artifact/Basalt Monolith + Time Vault/Twiddle を合併させた多少のオリジナル♪楽しかった! https://t.co/JiFtg46otY November 11, 2025
1RP
🚀【Googleの新ツール“Antigravity”がヤバい理由】
今日Googleが発表した「Antigravity」
一言でいうと…
“AIが複数人の部下みたいに動き出す時代、ついに到来” なんだよね。
📌 ポイントは3つだけ
① AIがエディタ・ターミナル・ブラウザを全部勝手に触る
→ 人間なら3〜4人必要な作業を“1つのAIチーム”が同時進行。
② 作業の全ログを「Artifacts」で丸見え
→ 何をどう進めたかスクショ・録画まで残る。透明性エグい。
③ もう“補助AI”じゃなくて“自走型エージェント”が主役へ
→ 初級デベロッパーの仕事領域がごっそり変わるやつ。
でね、ここが一番大事なんだけど…
AIが「作業」を担当してくれる時代、
人間に残る価値って“選ぶ力”と“決める力”だけなんだよ。
これ、怖い話じゃなくて
“先に知った人だけが有利な仕組み”
だから呂布くんはこう思う。
💡仕事の8割をAIに任せる準備をした人から自由になる。
逆に、
「まだAIは早いよね〜」と保留してる人は
ほんとに一瞬で置いていかれる。
まだ早いと思った“今”が、
一番早く動ける瞬間なんだよ。
Antigravityの本当の価値は、
「AIができることが増えた」じゃなくて
「あなたの価値を引き上げるチャンスがきた」ということ。
保存して後で読んで。
この波は、ほんとに大きいよ。
#AI時代の生存戦略 #Antigravity #Google #AIと仕事 #呂布くんのAI解説 November 11, 2025
1RP
Antigravityのdocsを読んでる
(個人的に)新しい概念が出てきたらメモる
Artifacts(既出の語?)
・エージェントと人間がコミュニケーションするファイルの総称?
・テキストやコード差分、画像ファイルとかフォーマットは色々らしい
・Planモードのエージェントが作るらしい
https://t.co/I6sw6LhvjH November 11, 2025
1RP
今朝のGUNDAM ARTIFACT phase5 シルヴァ・バレト・サプレッサー。両脚の建造。膝の突起は、ビーム・マグナムをぶっぱなすときに機体を固定するためのアウトリガーだったんだよ!(ナンダッテー!)
メカニックの解釈がそのままデザインに反映されている面白さ。
#ガンダムアーティファクト https://t.co/ymFip2Fa4w https://t.co/A5DSS78v2N November 11, 2025
1RP
自動運転は怖いけど
正しくついたよ〜
これを、Artifactsで、しっかりと見せてくれる。
従来はこれはなく、ログをせいぜい見せるくらいだが
Antigravityは、タスクを投げただけで、これらの証拠までを一気通貫で作ってくれる。
だから、信頼できる https://t.co/pboREmlxYq November 11, 2025
1RP
(途中でAntigravityのリミットがきてCodexに切り替えました)
最初にAntigravityに送ったプロンプト:
## **📂 最初に読むべき ADK ドキュメント**
ADKを理解し、適切に実装するために以下のファイルを順に参照してください:
1. **概要把握**:**docs/index.md** (ADKの全体像)
2. **エージェントの基本**:**docs/agents/index.md** (LlmAgent, ParallelAgent, SequentialAgentの違い)
3. **実装例**: `examples/python/snippets/agents/` 以下のコード (具体的な実装イメージ)
---
## **🏗 アーキテクチャ提案: ADKをどこで使うか?**
このプロジェクトは「リアルタイム性」と「高度なAI処理」の両立が必要です。以下のように役割分担することを推奨します。
### **1. ローカル監視フェーズ (ADK不要 ❌)**
**役割**: 映像の取得、表示、ハンドジェスチャー検知 (MediaPipe) **技術**: ブラウザ (JavaScript) または 軽量Pythonスクリプト **理由**: ADKのエージェントループはオーバーヘッドがあるため、毎フレームの処理(30fpsなど)には向きません。ここは `OpenCV` + `MediaPipe` 等で軽量に実装し、トリガー(指差し+ピンチ)を検知することに集中してください。
### **2. 実行フェーズ (ADK活用 ✅)**
**役割**: トリガー検知後の「要約」や「図解生成」 **技術**: **Google ADK (Python)** **構成案**: トリガーの種類に応じて、ADKで定義したエージェントを呼び出します。
- **Router (分岐)**: ジェスチャーの種類(要約 or 図解)を受け取り、適切なエージェントに振り分ける。
- **SummarizerAgent (**`LlmAgent`**)**:
- 入力: 画像 + テキスト
- 役割: 画像内の文字を読み取り、要約する。
- **DiagramAgent (**`LlmAgent`** or **`CodeAgent`**)**:
- 入力: 画像 + コンテキスト
- 役割: 概念を図解するための HTML/Mermaid/SVG コード(Artifacts)を生成する。
- *ADKの強み*: コード生成に失敗した場合の自動修正ループなどを組み込みやすい。
---
## **📝 私からの要件 (Smart Glass x AI)**
**1. プロジェクトの全体像とアーキテクチャ**
スマートフォンを「スマートグラス(ユーザーの目)」に見立て、MacBook等のPCを「処理・表示デバイス」として使用するシステムです。
- **Input (Client A):** スマートフォンのカメラ。ユーザーの手元(本と手)を撮影し、映像をPCへリアルタイム送信する。UIは不要で、撮影機能に徹する。
- **Processing & Display (Client B / Server):** PCのブラウザ。スマホから送られてきた映像を表示し、バックグラウンドで映像解析を行う。結果の出力(解説や図解)もこの画面上にオーバーレイ表示する。
### **2. 重要な技術的制約(コスト・負荷対策)**
**コストを考慮して「常時AI接続」は行わないでください。** 以下の2段階の処理フローを厳守してください。
1. **ローカル監視フェーズ(常時):**
- PC側のブラウザ上で、軽量なライブラリ(MediaPipe等、あなたが最適だと思うもの)を使用し、常にハンドジェスチャーの検知を行う。
- この段階ではGemini等の外部APIは呼び出さない。
2. **実行フェーズ(トリガー時のみ):**
- 特定のジェスチャー(後述)が検知された瞬間だけ、その時点のフレーム画像をキャプチャし、外部AI API (Gemini API) へリクエストを送信する。
### **3. 機能要件とUXフロー**
**ジェスチャー定義:** PC画面上にスマホからの映像を表示しつつ、以下のハンドサインを待ち受けます。
- **指差し:** 対象(本の内容)を指定する基本動作。
- **【要約トリガー】:** 指差し + 「親指と人差し指」のピンチ動作。
- Action: 画像内のテキストを読み取り、要約してテキスト表示。
- **【図解トリガー】:** 指差し + 「親指と中指」のピンチ動作。
- Action: 概念をHTML/JS等で図解(Artifacts的アプローチ)し、レンダリングして表示。
**出力UI:**
- PC画面のカメラ映像の上に、ARのように解析結果(ポップアップウィンドウやサイドパネル)を表示してください。
まずは上記を実装するための計画を作成してください。
基本的には、このプロジェクトはディレクトリ内の adk-docs/experiments に新しくディレクトリを作り、環境をセットアップしていきたいです。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



