こんにちは。前回は4〜5月の生成AIの進化をまとめましたが、その後わずか2ヶ月で、また新たなステージへと突入しています。この記事では、2025年6〜7月の2ヶ月間に見られた生成AIの主要トレンドを紹介します。
生成AIは、いよいよ“実装と共創”のフェーズに突入しました。 この2ヶ月間で生成AIは自律的に調査し、業務を代行し、音声つき動画を生成するレベルに到達しています。 この記事では、最新の5つの進化トピックを整理しました。 「そろそろ自社でも本格導入すべきか?」と考えている方にこそ読んでいただきたい内容です。
業務を“任せる”エージェント設計へ:Claude HooksとLangChainの進化
AnthropicのClaudeシリーズには、6月にHooks機能が追加されました。Hooksとは、Claudeが外部ツールや関数を呼び出す処理の直前(PreToolUse)や直後(PostToolUse)に、あらかじめ指定した操作やチェックを自動で挟み込む機能です。たとえば「コード生成の前に整形処理を走らせる」「API実行後にログ記録を残す」など、Claudeの動作に“ルールと工程”を組み込めるようになり、定型処理の自動化や信頼性のあるエージェント構築が可能になります。
一方で、LangChainは独自の「LangGraph」技術を通じてマルチエージェント型のワークフロー構築を進化させています。たとえばExa社は、LangGraphを用いて複数のエージェントが役割分担しながらWebリサーチを行う「Deep Research Agent」を実装。構造化されたレポートを15〜60秒で返す実装例が公式ブログで紹介され、LangChainがRAG(Retrieval-Augmented Generation)との組み合わせで複雑な業務を分担・自律遂行できることを示しています。
このようなLangChainベースの事例は、OpenAIの「Deep Research」やGoogleの「Deep Search」といった既存機能とも比較される中で、より柔軟に業務に最適化できる自律型エージェント基盤として実装余地を広げつつあります。
Veo 3の台頭:音声付きマルチモーダル動画の商用化
5月にGoogle I/O 2025で発表された動画生成AI「Veo 3」は、音声(対話・効果音・環境音)を動画と同期して自動生成する世界初クラスのモデルで、6月以降Pro/Ultraユーザーに順次提供が開始されました。
また、Veo 3 Fastと呼ばれる高速処理バージョンも7月末からVertex AI上で商用提供が開始され、1080p品質・音声付きの動画をより短時間で生成できるようになりました。
GPT-5とo3シリーズ:OpenAIの進化と価格破壊
OpenAIは次世代モデルGPT-5の開発が夏リリース予定であることを明言し、あわせて論理推論特化型の「o3」シリーズを発表。これにより、コード生成や数学的推論の精度が向上し、API利用料も最大80%値下げされました。ChatGPTには7月末に新たに「学習モード(Study Mode)」が追加され、段階的なヒント提示など教育分野への応用も進んでいます。
OpenAIは2025年7月に、GPT‑5を8月頃の公開予定として開発を進めていることが報じられました(ロイター日本語)が、これは「GPT‑5に o3 モデルを含む構成になる」とされており、事実上 o3 技術を統合した次世代エージェントモデルと見なされています。
また、6月には従来モデル「o3」のAPI価格が約80%引き下げられ、より低コストで高度な推論モデルを利用可能になったと伝えられています。
さらに、7月末にChatGPTに「学習モード(Study Mode)」が追加され、問題に対する即答ではなく、ソクラテス式問答やヒント提示を通じて段階的に理解を深められるよう設計されています。教育分野での活用を見据えたこの機能は、Free・Plus・Pro・Teamユーザー向けに提供されています。
分野特化・軽量モデルの活用加速:MedGemmaとTinyLlama
医療分野向けの大規模モデル「MedGemma」は診療支援などで試験導入が進み、専門領域ごとのAIの活用が一層現実味を帯びてきました。一方、軽量モデルとして注目されるTinyLlamaやMistral 7Bは、企業内サーバーやエッジ環境での運用を可能にし、中小企業のAI導入を後押ししています。
AIインフラ競争の激化:TPUシフトと投資拡大
OpenAIは2025年6月、Google CloudのTPU(Tensor Processing Unit)を活用し、一部のAIサービスにおける推論処理を開始したと報じられました。これは従来のNVIDIA製GPUに依存した構成からの脱却を意図したもので、コスト削減と供給多様化の一環とされています。
また、ソフトバンクは大阪府堺市にある旧シャープの液晶パネル工場を約1,000億円で取得し、150メガワット規模のAIデータセンターへ転用する計画を進めています。2026年の稼働を予定しており、日本国内における生成AIインフラ整備の拠点として注目されています。
まとめ:生成AIは“高度化と定着”のフェーズへ
この2ヶ月での進化は、生成AIを単なる「補助」から「共同作業者」、さらには「一部業務の代理遂行者」へと押し上げるものでした。特に、マルチモーダル生成や自律エージェント、モデル運用コストの最適化などが進み、生成AIが“現場で実装されるフェーズ”に入ったことを実感させる動きが相次ぎました。
今後は、こうした技術の進化をどのように自社業務に落とし込むかが問われる段階に入ります。
株式会社YEAAHでは、最新AI技術の動向を踏まえた導入支援や社内ガイドライン策定など、実践的な活用コンサルティングを行っています。
ツールの選定に迷っている方、どこから導入すべきか検討中の方も、まずはお気軽にご相談ください。
また、以下よりお問い合わせいただいた方には、本ブログの話題をよりA4サイズで詳細にまとめたレポートをもれなくプレゼントいたします。よろしければ、以下よりお気軽にご連絡ください。(営業の連絡や協業をうたう営業目的の連絡はご遠慮ください)
👉[ご相談・お問合せもこちらから(DX支援サービスページへ)]
参考文献一覧
- Claude Hooks ガイド(Anthropic):
- Claude Integrations発表(Anthropic):
- Google公式ブログ Meet Flow(Google):
- LangGraph: Multi-Agent Workflows(LangChain公式ブログ)-複数エージェントによる業務連携
- Exa × LangChain事例(LangChain公式ブログ)-複雑なWebリサーチレポート生成の実装例
- LangChain Changelog(公式更新履歴)
- Google開発者ブログ Gemini API(Google):
- Google Cloud brings Veo 3 and Veo 3 Fast(Times of India):
- Veo 3 Fast: Vertex AI上で高速動画生成(Android Central):
- オープンAI、「GPT‑5」8月リリースへ準備(ロイター)
- OpenAI、新しい推論モデル「o3‑pro」を提供開始 ~既存の「o3」は価格を80%引き下げ(窓の杜)
- Impress Watch:ChatGPT新機能「学習モード」 問題を解く過程を提示
- MedGemmaと医療分野のAI応用(DataScienceDojo):
- 軽量モデルの活用(Red Hat):
- OpenAIがGoogleのAIチップ(TPU)を採用、ChatGPTなどで活用と報道(Reuters):
- ソフトバンク、シャープ堺工場をAIデータセンター計画(ITmedia Ai+)
Q1. 2025年夏、生成AIで最も注目されたトピックは何ですか?
A1. 最も注目されたのは、Googleの動画生成AI「Veo 3」および「Veo 3 Fast」の商用展開、OpenAIの次世代モデル「GPT‑5」開発の進行、LangChainによるマルチエージェント構築(LangGraph)などです。生成AIが現場で“実装”されるフェーズに入ったことを示す動きが相次ぎました。
Q2. Claude Hooksとは何ですか?何ができるのですか?
A2. Claude Hooksは、AnthropicのClaude Codeに搭載された自動実行機能です。特定の処理タイミング(前後)に合わせて自動で整形・検査などを挟み込み、定型タスクをAIに任せるエージェント設計を可能にします。
Q3. LangChainのLangGraphとは何ですか?
A3. LangGraphは、LangChainが開発したマルチエージェント型ワークフロー構築技術です。複数の専門エージェントが役割分担して協調作業を行い、Exa社の事例では15〜60秒で構造化されたリサーチレポートを生成できます。従来の単一AI処理と比較して、より複雑で専門的な業務の自動化が可能になります。
Q4. ChatGPTの「学習モード」とはどんな機能ですか?
A4. 2025年7月末に追加された「学習モード(Study Mode)」は、ユーザーに即答を返すのではなく、段階的なヒントや質問を通じて理解を深める機能です。教育向けに設計されており、Free〜Teamプランで利用可能です。
Q5. 生成AIインフラにおける最新の動きは何ですか?
A5. OpenAIはGoogle CloudのTPUを推論環境に採用し、NVIDIA依存からの脱却とコスト削減を図っています。また、ソフトバンクは堺市の旧シャープ工場をAIデータセンターに転用する計画を発表し、日本国内でもインフラ整備が進んでいます。