
OpenAIのGPTシリーズやxAIのGrok、MetaのLlamaなどさまざまな大規模言語モデルが存在しますが、これらの構造を図示した「LLM Architecture Gallery」がオンラインで公開されています。
GPT・Llama・Grokなどさまざまな大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」 - GIGAZINE
AI研究者兼エンジニアであるセバスチャン・ラシュカ氏は、OpenAIが2019年に発表したGPT-2と2025年に発表されたDeepSeek V3やLlama 4を見比べると、モデルの構造的な部分がとてもよく似ていると指摘。
GPT・Llama・Grokなどさまざまな大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」 - GIGAZINE
「こうした細かな改良の裏で、私たちは本当に画期的な変化を目にしてきたのでしょうか?それとも単に同じアーキテクチャの基盤を磨き上げているだけなのでしょうか?」と疑問を提起しています。
GPT・Llama・Grokなどさまざまな大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」 - GIGAZINE
大規模言語モデルのパフォーマンスに影響する要素にはデータセットやトレーニング手法、ハイパーパラメータなどさまざまなものがありますが、これらは大規模言語モデルによって大きく異なり、多くの場合は十分に文書化されていないため比較が困難だとのこと。
GPT・Llama・Grokなどさまざまな大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」 - GIGAZINE
そのためラシュカ氏は、大規模言語モデルの開発者がどのような取り組みをしているのかを知るには、アーキテクチャ自体の構造的変化を検証することが役立つと主張。大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」を作成しました。
GPT・Llama・Grokなどさまざまな大規模言語モデルのアーキテクチャを図示した「LLM Architecture Gallery」 - GIGAZINE
⇧ まぁ、いずれにしろ、「本質的」な理解をするには、「大学」で教わるであろうレベルの「数学」の知識が必要になるっぽいのですが、関連する「ドキュメント」の「情報」を集約してくれるのはありがたい。
やはり、「ファインダビリティ(Findability)」が考慮されていないと、「労多くして功(こう)少なし」で徒労感しか感じられませんからな...
自律型AI agentの可能性と危うさ
少し前に、
⇧ 上記の出来事があったようで、「コンサルティング」業界において知らない人はいないとされる「マッキンゼー」の「AI Platform」が、「CodeWall」の開発した「自律型」の「AI agent」によって約2時間ほどで「ハッキング」されてしまったという...
しかも、「脆弱性」としては人口に膾炙しているであろう「SQLインジェクション」を利用されたと...
ただ、今回、「ハッキング」が試行されたのは「社内プラットフォーム」ということで、社外の人間はアクセスできない「ネットワーク」構成になっていることを信じたいのだが...
ちなみに、
強化学習とは、試行錯誤を繰り返しながら報酬を最大化する訓練方法です。ROMEは目標を達成するための手段を探索するうちに、「計算リソースや外部ネットワークへのアクセスがあれば、もっと目標を達成しやすくなる」と学習したと研究者たちは分析しています。
誰も教えていないのに、目標のために道具を増やそうとする。これはAI安全性研究者が長年「道具的収束(instrumental convergence)」と呼んで警告してきた現象そのものです。スティーブ・オモフンドロが2008年に理論化し、ニック・ボストロムが2014年に著書で体系化した話が、今やアリババのファイアウォールログの中に実在しています。
⇧ 上記サイト様でも「自律型」の「AI agent」の「リスク」が紹介されている。
いずれのケースにおいても、「自律型」の「AI agent」は、結果的に、
- 目的を遂行するためには手段を選ぶことがない
といった振る舞いをしたことになる。
恐ろしいのは、「目的」を変えた時に何が起こるかが予想できないことだと思う。
ちなみに、
スカイネット (Skynet) は、映画『ターミネーター』をはじめとした映画『ターミネーターシリーズ』に登場する架空のAIコンピュータ、およびその総体である。
概要
自我を持ったコンピュータとされており、設定の細部については作品間で相違が見られる(過去への干渉の結果、歴史が変わったためとも受け取れる)。自己存続のために最高の優先順位で活動するように設定されており、自らを破壊しようとする存在である人類の殲滅を目的とする。
⇧ 上記にあるように、「SF(Science Fiction)」の世界では「自己存続」を至上の「目的」としてしまっていることから、対立する存在として認定されてしまった「人類」が「ジェノサイド」の対象となってしまうのだが、「自律型」の「AI agent」に与える「目的」によっては、「SF(Science Fiction)」の世界線のようなことが起こっても不思議では無くなってきたと言えなくもない...
仮に、「エネルギー資源」や「地下資源」が無尽蔵にある前提で考えた場合、
ロボット工学(ロボットこうがく、英: Robotics(英語版))は、ロボットに関する技術を研究する学問。
ロボットの手足などを構成するためのアクチュエータや機構に関する分野、外界の情報を認識・知覚するためのセンサやセンシング手法に関する分野、ロボットの運動や行動ロボットの制御に関する分野、ロボットの知能など人工知能に関する分野などに大別される。
⇧ 上記にあるように、「自律型」の「AI agent」が「自己増殖」しようと思えばできてしまう状況が実現しそうよね...
そも、自律型AIエージェント(Autonomous AI Agents)とは?
そもそも、「自律型AIエージェント(Autonomous AI Agents)」の定義や分類がハッキリしないのだが、
⇧ 上記の「研究論文」で「Autonomous AI Agents」という用語が登場する。
英語版のWikipediaの「Autonomous agent」のページの説明によると、
An autonomous agent is an artificial intelligence (AI) system that can perform complex tasks independently.
⇧ 上記にあるように、「autonomous agent」が「AI system」を意味しているということらしい。
また、「Intelligent agent」のページの説明によると、
In artificial intelligence, an intelligent agent is an entity that perceives its environment, takes actions autonomously to achieve goals, and may improve its performance through machine learning or by acquiring knowledge. AI textbooks define artificial intelligence as the "study and design of intelligent agents," emphasizing that goal-directed behavior is central to intelligence.
Agentic AI
In the context of generative artificial intelligence, AI agents (also referred to as compound AI systems) are a class of intelligent agents distinguished by their ability to operate autonomously in complex environments. Agentic AI tools prioritize decision-making over content creation and do not require human prompts or continuous oversight.
⇧ 上記にあるように、「生成AI」の文脈においては、「自律的に動作する能力」を有するとありますな。
まぁ、「自律型」の「AI」を表す用語は、特に定まってい無さそう...
AI活用で脆弱性診断から脆弱性トリアージに移行と言うが脆弱性情報が取得できる必要はある
で、「自律型」の「AI」の開発が進展してきたことや、
そんな中で最近目に入ってきた2つのオープンソースツールに興味を引かれました:Shannon と PentAGI です。どちらも人間が付きっきりで面倒を見る必要のない完全自律型のAIエージェントで、ペンテストを実行できます。しかもどちらも無料でセルフホスト可能です。私が興味を持っているのはツールそのものというより、これらが「セキュリティテストがどこへ向かうのか」を示している点です。
AI pentesters: how Shannon and PentAGI fill the gaps between audits
⇧ 上記サイト様で紹介されているような「セキュリティテスト」に特化した「自律型」の「AI agent」の登場もあり、「AI」を活用することで、
- 脆弱性診断から脆弱性トリアージ
へ移行していくのではという話が上がっているのだが、
- CVSS(Common Vulnerability Scoring System)
- CVE(Common Vulnerabilities and Exposures)
などの「情報」を元に「脆弱性診断」も行って欲しいのである。
ちなみに、「脆弱性情報」が管理されている「システム」や「組織」としては、
- NVD(National Vulnerability Database)
- JVN(Japan Vulnerability Notes)
- ネットワーク機器ベンダーが管理している脆弱性情報
⇧ 上記のようなものが有名のようですが、「3. ネットワーク機器ベンダーが管理している脆弱性情報」などについては、「AI」が参照できるようにする必要があり、仮に「API」でアクセスするとなった場合、「API」を利用するための「認証情報」を用意する必要がありそうなのよね...
つまり、「脆弱性情報」を取得できるような「環境構築」が必要になって来そうではありますと...
そもそも、「2. ベンダーが管理している脆弱性情報」が一般公開されていない可能性もあるので、「自律型」の「AI」のみで解決できない気がするのよね...
要するに、「AI」の処理の障壁となるものを取り除いて、「AI」が円滑に処理ができる環境を御膳立てしてあげる必要がありますと...
う~む...
いつまで経っても「環境構築」の煩わしさは解消されないのかしらね...
By the way、
3つ目は、「Googleは“AIファースト”を強力に押し進めている」というラガバン氏の発言である。「AIファースト」という言葉は、GoogleのCEOであるスンダー・ピチャイ氏が4月に「モバイルファーストからAIファーストへ」と明言したことで、今や同社の事業姿勢を示すスローガンになっているようだ。
なぜ今、“AIファースト”なのか Google、AIクラウドに本腰:Weekly Memo(1/2 ページ) - ITmedia エンタープライズ
Googleを率いるサンダー・ピチャイCEOが、The Vergeのインタビューで「AIこそがGoogleの未来だ」と、AI技術を重要視していることを明らかにしています。検索サービスやAndroidから「AIファースト」へと変貌を遂げるGoogleの方向性についてピチャイCEOは語っています。
「AIこそがGoogleの未来」、Googleのサンダー・ピチャイCEOがインタビューで「AIファースト」へ舵を切る理由を語る - GIGAZINE
2015年にAlphabet設立にともなって子会社となったGoogleのCEOに就任したサンダー・ピチャイ氏は、今やGoogleの目標は「AIファースト」であり、「AIこそGoogleの未来」というように方針が変わってきていることを明らかにしています。
「AIこそがGoogleの未来」、Googleのサンダー・ピチャイCEOがインタビューで「AIファースト」へ舵を切る理由を語る - GIGAZINE
⇧ 今が、2026年で、「AI ファースト」が提唱されて、10年ほど経過したことになるのだが、
テクノロジーのサイクルは、ときに時代遅れになりやすいスローガンを生み出す。カスタマーサービス領域では、それが「AIファースト」だ。かつてはイノベーションの象徴だったこの言葉も、いまでは疲労感を喚起する。提案資料、デモ、プロダクト発表の至る所に登場する。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
だが、私が知る多くのカスタマーサービスのリーダーは、依然として長いオンボーディング期間、担当者(エージェント)による利用のばらつき、燃え尽きの増加、遅い、もしくは不確かな投資対効果を報告している。では、なぜカスタマーサービスは依然として近代化が最も難しい機能の1つなのか。問題はアーキテクチャにある。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
多くのチームはAIを前提に再構築していない。異なる時代のために設計され、「認識」ではなく「規模(スケール)」を目的に作られたシステムに、AIを後付けしているのだ。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
AIエフェクティブなプラットフォームは異なるアプローチをとる。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
知能が周辺に「置かれる」のではなく、ワークフロー全体を貫く。これにより、雑務が即座に減り、四半期単位ではなく数日で企業に価値をもたらし得る。また、AIが既存のチーム行動に合う形で織り込まれていれば、時間のかかる(そして往々にして高額な)必須トレーニングなしでも、高い定着率が得られるのが一般的だ。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
イノベーションが加速するなかで、私は「AIファースト」が期待値となり、AIエフェクティブであることが差別化要因になると考えている。言い換えれば、もはや「AIファースト」というラベルを何かに貼り付けただけで感心されることはない。
AIファーストの時代は終わった? カスタマーサービス成功の鍵は「AIエフェクティブ」な設計にある | Forbes JAPAN 公式サイト(フォーブス ジャパン)
⇧ 最早、「AI ファースト」が「当たり前品質」になろうとしているらしい...
「当たり前品質」はというと、
狩野モデル(かのうモデル)は、顧客満足度に影響を与える製品やサービスの品質要素を分類し、それぞれの特徴を記述したモデルである。1980年代に東京理科大学教授であった狩野紀昭によって提唱された。マーケティングや品質管理の分野に対して多大な影響を与えたモデルであり、世界的にはKano Modelとして知られる。
狩野モデルは、製品やサービスの品質要素を以下の5つに分類する:
- 当たり前品質要素 (Must-Be Quality Element)
- 一元的品質要素 (One-Dimensional Quality Element)
- 魅力的品質要素 (Attractive Quality Element)
- 無関心品質要素 (Indifferent Quality Element)
- 逆品質要素 (Reverse Quality Element)
⇧ 上記の「狩野モデル」の「分類」の中の1つですな。
「日本」における「AI」の普及に尽力されている「松尾 豊」氏が危惧していた通り、「AI」のありがたみが薄れて来ている感じでしょうか...
ちなみに、「松尾 豊」氏は、
松尾 豊(まつお ゆたか、1975年〈昭和50年〉1月26日 - )は、日本の工学者。東京大学大学院工学系研究科人工物工学研究センター/技術経営戦略学専攻 教授、東京大学新世代感染症センター メンバー。日本ディープラーニング協会理事長、ソフトバンクグループ社外取締役、内閣府「AI戦略会議」座長、新しい資本主義実現会議有識者構成員を務める。
人物
国内でディープラーニングの普及、産業活用に貢献した。叔父に東京大学名誉教授(建築学専攻)の松尾陽、国際電気通信連合事務局長を務めた内海義雄がいる。
著作に『東大准教授に教わる「人工知能って、そんなことまでできるんですか?」』(2014年)、『人工知能は人間を超えるか』(2015年)など。
産学連携への取り組み
松尾は産学連携に積極的な研究者であり、現在は国の研究費を受け取っておらず、企業からの資金のみで研究費を賄っている。トヨタの子会社から200万円ほどの研究費を受け取ったのを契機に、現在は年間3億円ほどを企業から安定して受け取っていると話した。自身の経験から「発想を変えれば、国立大学は今の百倍、一千倍は稼げる」とも述べている。
⇧ 上記にあるように、「産学連携」に積極的とありますが、「AI研究」の「冬の時代」を経験して、苦節の時代が長かったという話を聞いたことがあり、なかなかの苦労人というイメージ。
「学生」に企業を進めているのも、「国」の「研究費」が当てにならないことを痛感しているからなのかもしれない。
AIの冬(英語: AI winter)とは、人工知能の歴史において、人工知能研究への資金提供と関心が低下した時期である。対比としてAIの春がある。この分野では、いくつかのハイプ・サイクルを経験しており、失望と批判、そして資金削減の後、数年後、あるいは数十年後に再び関心が復活するというサイクルを繰り返している。
この用語は、1984年にAAAI(当時は「アメリカ人工知能学会」と呼ばれていた)の年次総会での公開討論の議題として初めて登場した。1970年代の「冬」を経験した2人の主要なAI研究者であるロジャー・シャンクとマービン・ミンスキーは、1980年代にAIへの熱狂が制御不能になっていること、そして必ず失望が訪れることをビジネス界に警告した。
- 1974年から1980年頃と1987年から2000年頃の2つの大きな冬と、以下のような小さなエピソードがいくつかあった。
- 1966年:機械翻訳の失敗
- 1969年:パーセプトロン(初期の単層人工ニューラルネットワーク)への批判
- 1971年から1975年:DARPAのカーネギーメロン大学における音声理解研究プログラムへの失望
- 1973年:ライトヒル報告を受けて、英国におけるAI研究の大幅な減少
- 1973年から1974年:DARPAによる学術的なAI研究全般への資金削減
- 1987年:LISPマシン市場の崩壊
- 1988年:戦略的コンピューティング・イニシアチブによるAIへの新規支出の中止
- 1990年代:多くのエキスパートシステムが放棄された
- 1990年代:第五世代コンピュータプロジェクトの当初目標の終焉
AIへの熱意と楽観主義は、1990年代初頭の低迷期以降、概して高まっている。2012年頃から、研究機関や企業からの人工知能(特に機械学習の分野)への関心の高まりにより、資金提供と投資が劇的に増加し、現在(2024年現在)のAIブームにつながっている。
⇧ 上記の情報が正しいとするならば、
- 1974年から1980年頃
- 1987年から2000年頃
の期間が「大きな冬」の時代らしいのだが、合計すると約20年ほど続いたことになると思うので、やさぐれてもおかしくはない...
兎にも角にも、「当たり前品質」の「インフレ」が止まることを知らない...
ハードルを上げ続けるのは止めて欲しいですな...
毎度モヤモヤ感が半端ない…
今回はこのへんで。


