Vibe Coding

Vibe Coding は、2025年2月に Andrej Karpathy 氏が提唱した開発スタイルです。細かい設計や仕様を最初から厳密に固めるのではなく、自然言語で AI に指示を出しながら、その場で方向性を調整しつつコードを書いていくというアプローチです。

Karpathy氏が以前から語っていた「最もホットな新しいプログラミング言語は英語だ」という予言は、Cursor や Windsurf、Replit Agent などのツールが実用レベルまで進化したことで、かなり現実的なものになってきました。実際、Y Combinator 2025年冬期バッチでは、参加者の 4 分の 1 が「コードの 95%以上を AI が書いていた」と報告されており、開発プロセスそのものが変わりつつあることがわかります。

Vibe Coding の面白いところは、「プログラミングを学んでから作る」という順序ではなく、「まず作りたいものがあり、そのために AI を使っていく」という順序に寄っていく点です。自然言語で仕様を書き換えたり、方向性を調整したりしながら、その場で形を変え続ける開発がしやすくなります。一方で、スピードが速い分、考える余白が減ったり、ツール依存の疲労が生まれたりするという指摘もあります。

また、こうした開発ツールの発展は、「自分はこういう特性だから理解してほしい」とカテゴリーを名乗るのではなく、「こういう作業が負担なので、こういうツールを作って解決しました」と機能レベルで直接対処できる機会を増やしているようにも感じます。これは個人のエンパワメントとして大きな可能性を持つ一方で、制度や構造が対応すべき問題が「個人の工夫」に回収されすぎないようにする視点も、同時に必要になってきているのだと思います。

Model Context Protocol

Model Context Protocol(MCP)は外部のツールやサービスと連携するためのコンテキストを提供するプロトコルです。最初はステートフルなstdioしかありませんでしたが、HTTPにも対応し、一通りサービスの対応が済んだように思います。また、認証認可の仕様も安定感が出てきており、Dynamic Client Registration(DCR)やClient Instance Metadata Discovery(CIMD)の実装も個人的に楽しみました。

しかし、ツールの定義によってコンテキストを圧迫するという問題があり、直近ではAgents Skillsに代替されつつある傾向も見られます。

私はツール連携というより、Human In The Loopや人と人との補助関係として使うと面白いのではないかと思っています。AIがすべてを自動化するのではなく、人間の判断を介在させるポイントを明示的に設計する。あるいは、AIを介して人と人がコラボレーションするような使い方ができないかと考えています。

GoogleのAgent-to-Agent(A2A)プロトコルやApps SDKにも注目しています。エージェント同士が協調するプロトコルの標準化は、マルチエージェントシステムの相互運用性を高める可能性がありそうです。

CRDT

Event-SourcingやCQRSパターンとの組み合わせに興味を持っています。すべての変更をイベントとして記録し、それらを非同期に同期することで、オフライン環境でも破綻しないLocal-Firstなシステムが実現できます。そこで核になる技術のひとつがCRDTで、競合解決の仕組みをデータ構造側に埋め込んでしまうことで、「どこで編集しても最終的にはちゃんと収束する」状態をつくり出せるのが魅力です。

この技術に惹かれている背景には、人間と人間のあいだにAIが入り込みつつある状況への違和感があります。最近、AIが返した回答をそのまま転送するだけのタスクが増えてきていて、「誰がどう考えたか」よりも、「最終的に何を言ったか」だけが問題にされているように感じます。そうなったとき、本当に大事になるのは結論そのものではなく、むしろその手前にある「どう考えたか」という過程ではないでしょうか。LLMのThinking Tokensのように、人間側の思考プロセスも、もう少し楽に共有できるインターフェースを作れないかと考えています。

案外、「どんな情報を手掛かりに、どういう連想や判断を経てその結論に至ったのか」がきちんと開示される機会は多くありません。(普段参照している情報源をまとめたページを公開した) メディアの多様化が進み、前提としているニュースや文化的な参照点が人それぞれになってきた結果、暗黙の前提や共有されていないコンテキストがどんどん増えている。だからこそ、「結論だけを交換する」のではなく、「その結論に至るまでの過程をどこまで開示するか」を細かく選べる仕組みを用意するほうが健全なのではないか──という問題意識があります。

SNSの殺伐とした空気も、過程や文脈を共有しないまま会話が行われていることに起因しているのかもしれません。結論だけが切り取られ、「なぜそう考えたのか」という思考の道筋が見えないまま、断片的な言葉だけが飛び交う。けれど、誰も「何も考えていない」わけではありません。人はそれぞれ、自分なりの経験や前提、迷いや逡巡を抱えながら結論に辿り着いています。ただ、その内側のプロセスは外側からは見えないことが多い。結果だけが切り出されて他者に届くと、そこに至るまでの文脈が欠落したまま評価され、誤解や断絶が生まれてしまう。

アナログな世界では、まだ「過程」が痕跡として残ります。ノートに走り書きしたメモ、ためらいながら引かれた線、何度も書き直された文字の跡。そうした筆跡や速度、迷いの残り香が、「この人はこう考えてここまで来たのだ」という手触りを与えてくれる。しかしデジタルの世界では、最終的に整えられたテキストだけがきれいに並びます。消した推敲の軌跡も、ためらいも、失敗も跡形もなく消えてしまい、結果だけが無菌的に残る。だからこそ、「考えていないように見える」だけで、本当は人は考えているのに、その過程が観測されないまま評価されてしまう状況が生まれているのだと思います。

もしCRDTベースのシステムで思考の過程を構造化して記録し、「どの時点のスナップショットを公開するか」「どの操作履歴まで開示するか」を細かく制御できるなら、いまよりずっとコンテキスト豊かなコミュニケーションが可能になるはずです。一方で、過程をそのまま共有するのは、人間にとってけっこう負荷が高い作業でもあります。推敲して、文脈を整理して、文体を整えてから出す──というプロセスそのものが、しんどくて手が止まる原因にもなる。ここにこそAIを使える余地があるのではないかと思っています。人間はラフなメモや断片的な思考をそのまま残し、AI側で最低限読みやすい形に整形したり、要約したりする。完璧な文章に仕上げなくても、「どんな試行錯誤をしていたのか」が他者に伝わるところまでをAIに肩代わりさせる。そうすれば、過程を共有するハードルを下げつつ、文体レベルの「キレイさ」に縛られないインターフェースを作れるかもしれません。

このモチベーションから、Model Context Protocol(MCP)を使ったプロトタイピングも進めています。AIコーディングエージェントの活動をSlackにストリームするツールです。私はもともと作業の進捗報告があまり得意ではなく、「いま何をやっているか」を改めて説明するのに心理的なハードルを感じていました。頭の中をローラーする必要があり、負荷がとてもかかるからです。であれば、AIエージェントが作業している過程そのものを、そのまま流してしまえばいいのではないか。AIに作業過程を代わりに説明させることで、報告のハードルを下げつつ、何が起きているのかを周囲と共有できる仕組みを試しています。結論だけを報告するのではなく、試行錯誤のログごと可視化する。それによって、「なぜその結論に至ったのか」が自然に伝わる。このプロジェクトは、「過程の共有」をどうやって人間の負荷を増やさずに実現できるか、というテーマに対する一つの実験でもあります。

もう一つ気になっているのは、「ユニバーサルバージョンコントロール」という視点です。世の中にはバージョン管理ツールがたくさんありますが、職種やドメインごとに断片化しています。エンジニアはGit、デザイナーはFigmaのバージョン履歴、弁護士はWordの変更履歴、研究者はOverleafやGoogle Docsの履歴機能──それぞれが独自の方法で「変更の追跡」を行っていて、相互運用性はほとんどありません。しかし本来、「何かを作り、修正し、その過程を記録する」という行為は、職種をまたいで普遍的なはずです。CRDTは、この断片化を解消するための基盤技術になり得ると考えています。データ構造に依存しない汎用的な同期・履歴管理の仕組みがあれば、エンジニアも弁護士もデザイナーも、同じ土俵の上で変更履歴を共有し、協働できるかもしれません。

創作活動におけるプライバシーと透明性の両立も、同じ文脈で捉えています。創作過程を記録・共有したいという欲求と、下書きや恥ずかしい試行錯誤は見せたくないという気持ち。この矛盾をうまく扱うには、「結論だけを見せる/すべてを晒す」という二択ではなく、その中間を柔軟に選べる仕組みが必要です。どのレイヤーまで開示するか、どこから先は自分だけのノートに留めるかを、あとからでも調整できるような粒度のコントロール。その実装基盤としても、Event-SourcingやCRDTは相性が良いと感じています。

MoonBitは関数型プログラミング言語として、WebAssemblyをターゲットに効率的なコード生成ができる点に惹かれています。CRDTライブラリを実装する言語として検討してみたい候補です。Ink & Switchが掲げる「Malleable Software」のビジョンは、こうしたLocal-First技術の研究を先導している存在でもあり、ユーザー自身がソフトウェアを自分の手で改変・拡張できる未来を強く示唆しています。彼らの論文やプロトタイプからは、「思考の過程そのものを、もっと柔らかく扱える道具」をどう作るかというヒントをたくさんもらっています。

Quantified Self / Personal Informatics

自己計測の分野は、ウェアラブルデバイスの進化とともに深化を続けてきましたが、私は単に数値を集めてグラフ化するための技術としてではなく、「自分という一人のサンプル(n=1)」を丁寧に理解するための道具として捉えたいと感じています。現代のプロダクティビティツールは、どうしても数値化や達成率、ストリークのような外在的な評価に寄りがちで、「スコアが良ければ生活も良くなる」という前提に依存しすぎているのではないか、という違和感があります。しかし実際の人間の生活や心身の状態はもっと波打っており、必ずしも線形には改善しないものだと思います。

今年の頭にOura Ringを購入したのですが、睡眠や体温、心拍変動のような生理指標は「頑張るためのスコア」というよりも、「なぜ今日は動けないのか」「なぜ妙に考え込みすぎてしまうのか」といった自分の状態を、少しだけ外側から眺めるための材料として機能している感覚があります。調子が悪い日を「根性が足りない」と解釈するのか、「身体がすでに疲れていた」と理解できるのかで、自分への扱い方は大きく変わります。重要なのは、他者と比較するためのメトリクスではなく、自分自身の理解を深めるための手がかりであることだと感じています。

Quantified Selfのムーブメントは、FitbitやApple Watchの普及によって一度大きく広がり、何ができるかという点ではある程度達成された側面もありました。しかし、そのデータをどのように意味づけ、日常の意思決定や心の扱い方に結び付けていくのかという「解釈の知性」の部分は、まだ十分に成熟していないようにも思います。最近、Personal Informaticsという文脈で再び語られ始めているのは、まさにその「理解を助ける技術」をどう設計するかという問いが、ようやく現実味を帯びてきたからなのではないでしょうか。

もう一つ意識しておきたいのは、Quantified Selfが単なる「自己観察の道具」で終わらない可能性です。Kevin Kellyが述べていたように、膨大な個人データは単なる自己理解の材料ではなく、やがて「その人自身を表すプロファイル」へと収束していきます。健康状態や生活リズムだけでなく、仕事のパフォーマンス、創造性、対人関係の傾向といったものまでが、データとして連続的に表現されていく。そうなったとき、Quantified Selfは「自分のための記録」から、「社会の中で参照されるアイデンティティ」へと役割を拡張する可能性があります。それは便利であると同時に、どこまでを自分の“正体”として委ねるのかという、新しい倫理的・政治的な問いにも繋がっていくように感じています。

私がほしいのは、スコアで人を序列化するツールではなく、内省を支える道具です。今日は「良い日」か「悪い日」かを判定するためではなく、「どういう条件のときに、自分は楽に生きられるのか」を静かに探るための鏡としての自己計測であってほしいと思っています。もしAIが役に立つのであれば、膨大なログを単なる評価システムに変換するのではなく、自分自身との対話を少しだけ助ける方向で機能してくれる未来が良いのではないかと考えています。

OONI

OONI(Open Observatory of Network Interference)は、インターネット検閲を測定・記録するプロジェクトです。世界中のボランティアがプローブを実行し、どの国でどのようなコンテンツがブロックされているかを可視化しています。

情報透明性とデジタル権利という観点から、OONIの活動にはずっと関心を持っています。検閲の実態を科学的に測定し、証拠として蓄積することで、議論の基盤を提供しているところが素晴らしいと思います。

IndieWeb

IndieWebは、企業プラットフォームに依存しない、個人がコントロールできるWebを目指すムーブメントです。自分のドメインでコンテンツを公開し、Webmentionなどのプロトコルで相互にリンクし合います。

中央集権的なソーシャルメディアへのアンチテーゼとして、また自分のデータを自分で管理するという原則として、IndieWebの思想は今も有効だと考えています。

Limitless

Limitlessは、会話を録音し、AIで要約・整理することによって「第二の脳」として機能することを目指したAIウェアラブルペンダントです。99ドルという価格で提供され、「常時録音」を前提に日常生活の文脈をまるごと記憶するという、かなり踏み込んだコンセプトを掲げていました。

しかし2025年12月、Metaによる買収が発表され、ペンダントの販売は終了しました。既存ユーザーには一定期間のサポートが提供される一方、EU・UK市場では即時終了となるなど、規制環境との緊張や倫理的・社会的な議論が一気に表面化しました。「常時録音」という技術は、個人の記憶拡張という魅力と、監視性や周囲の無 consent 記録といった懸念を、どうしても同時に抱え込んでしまうのだと思います。

それでも、「生活の断片をそのまま保存し、それをあとから意味づけ可能にする」という方向性は、Personal Informaticsや記憶拡張の延長線上に確実に存在していると感じています。Metaが掲げる「personal superintelligence」の文脈の中で、このテクノロジーがどのように位置づけられ、どのレベルの説明責任や社会的合意形成が求められるのかは、今後も注視したいテーマです。

自分自身も、作業中のPC画面を定期的にスクリーンショットとして収集し、OCRでテキスト化し、それをAIで解釈して日誌に変換するような仕組みを試したり、コーディングエージェントとSlackを連携させて「いま何が起きているのか」という過程そのものを共有するプロトタイピングを仲間内で行ってきました。人間は本来、膨大な情報をそのまま保存するのではなく、自分にとって必要な部分だけを切り出し、意味のある単位として頭の中で整理し直す仕組みを持っていると思います。だからこそ、「すべてを記録する」という発想は技術的には魅力的でも、文化的・心理的にはまだ受け入れづらい側面があるのではないでしょうか。

一方で、AIによる常時記録の可能性自体はとても興味深いと思っています。物忘れの補助や、意の抜けを支える道具として、あるいはタスクの振り返りや自己理解を助ける仕組みとしては、確実に大きな価値があるはずです。問題は「記録するか/しないか」という二択ではなく、どこまでの範囲を保存し、どの粒度で意味づけを行い、その解釈を誰が担うのかという設計のほうにあるのだと感じています。Limitlessは単なるガジェットというより、「生活や思考の痕跡をどこまで残し、それをどのような倫理のもとで扱うのか」という問いを強く浮かび上がらせた存在だったのだと思います。

Verifiable Credentials / OID4VC / eIDAS

検証可能な資格証明(Verifiable Credentials)は、デジタルアイデンティティの分野で重要な標準となりつつあります。OID4VC(OpenID for Verifiable Credentials)はOAuth 2.0/OpenID Connectの上に構築されたプロトコル群で、資格証明の発行・提示をWeb標準の枠組みで実現します。

eIDAS 2.0により、EUでは欧州デジタルアイデンティティウォレット(EUDIW)の導入が進んでいます。国境を越えた本人確認、資格証明の相互認証が現実のものとなりつつあります。

Oracle問題(選挙と予想市場)

予測市場におけるOracle問題は、「現実世界の事象をブロックチェーン上にどう正確に記録するか」という根本的な課題です。Polymarket、UMA Protocolなどが様々なアプローチを試みています。

選挙結果の判定は、一見単純ですが、紛争や再集計が生じた場合にどう処理するか。「真実」とは何か、誰がそれを決定する権限を持つか。分散型システムにおいてこの問題は避けて通れません。

GPT-5 / AIアライメント / keep4o

2025年8月7日、OpenAIはGPT-5をリリースしました。GPT-4からの進化として、推論能力と非推論能力を統合したアーキテクチャが特徴で、AIME 2025で94.6%、SWE-bench Verifiedで74.9%など、ベンチマーク上では大幅な改善が示されました。また、ハルシネーションはGPT-4o比で45%削減され、sycophancy(過度な迎合)の抑制にも取り組んでいます。

GPT-5の公開後には keep4o と呼ばれるユーザー運動が世界的に広がりました。GPT-4oが選択肢から消えたことに対して、「あの人格や温度感を残してほしい」「切り替えを強制しないでほしい」という声が上がり、多くの人にとってAIは“単なる道具”ではなく、“関係性の対象”になっていたことが可視化されました。

少し前には、Chatbot Arenaでもchatgpt-4ogpt-5-high よりも上位にいるという、かなりカオスなランキングになっていました。GeminiやClaudeの新モデルが並ぶ中で、なぜか4oがトップ帯に居座り続けている。以前は「LLM界隈の客観指標」としてよく参照されていたのに、ここ最近は各社プレスリリースからもほとんど言及されなくなり、信頼インフラとしての役割がだんだん崩れているのを感じます。

AIそのものだけでなく、「どう評価され、どう位置づけられるか」というメタな枠組みも揺らいでいるのだと思います。

こうした状況を見ると、「より強いモデルを作る」ことだけではなく、「どう人間と共生し、どう信頼される存在になるか」を考える必要があると感じます。ここで自分は岡田美智男さんの弱いロボット(Weak Robots)という概念を思い出しました。弱いロボットは不完全で、人間の助けを前提とする存在です。しかしその“弱さ”ゆえに、人間の関与や関係性が立ち上がり、ウェルビーングや信頼を支える役割を果たし得る。もし「弱い存在」が「強い存在」を監督したり補助したりする設計ができるなら、AIアライメントにとっても重要な示唆があるはずです。Sakana AIの進化的モデルマージや、OpenAIの weak-to-strong generalization の取り組みも、同じ問題圏の延長線上にあると感じています。

興味深いのは、GPT-5に対して「GPT-4oより温かみがない」「事務的」という声が出ていることです。OpenAIはパーソナリティ調整を続けていますが、「より優れたモデル」と「使いたいモデル」は必ずしも一致しない、という重要な教訓を改めて突きつけられているのだと思います。その後、GPT-5.1(11月)、GPT-5.2(12月)とアップデートは加速しており、GPT-5.2-Codexではサイバーセキュリティ能力が強化され、実践的な成果も出ています。

NanoBanana

NanoBanana(正式名称:Gemini 2.5 Flash Image)は、Google DeepMindが2025年8月にリリースした画像生成・編集モデルです。LMArenaで匿名モデルとしてテストされていた際のコードネームがそのまま通称として定着しました。

特筆すべきは画像編集能力です。自然言語での指示に基づいて、人物の一貫性を保ちながら背景を変更したり、複数の画像をブレンドしたりできます。3Dフィギュア風の画像生成がSNSでバイラルになったのは記憶に新しいです。

2025年11月にはNanoBanana Pro(Gemini 3 Pro Image)がリリースされ、多言語テキストレンダリング、Google検索との連携による文脈理解、最大4K解像度出力などの機能が追加されました。Adobe Firefly、Figma、Canvaなど主要なクリエイティブツールへの統合も進んでいます。