Google Researchが「宇宙でAI計算を拡張する」設計案を公開しました。名前はProject Suncatcher。太陽光パネルとTPUを積んだ小型衛星を群れで飛ばし、衛星間を自由空間光通信でつなぐことで、将来的に“データセンター並み”のAI計算を軌道上で回す構想です。地上に比べて日照効率が最大8倍になる太陽同期軌道を前提に、地上資源(用地・水・系統電力)への負荷を抑えつつ、AIの計算需要を長期的に満たす狙いが語られました。
鍵は“衛星をどれだけ太く速くつなげるか”。Suncatcherは衛星同士を数百メートル〜数キロの至近距離で編隊飛行させ、DWDMと空間多重を組み合わせたレーザーリンクで「リンク1本あたり10Tbps級」を目標に置きます。実験室のベンチでは市販部品で片方向800Gbps(双方向1.6Tbps)を確認。リンク予算を満たすため、距離を極端に縮めるという発想が肝です。
もちろん、宇宙で“密集運用”するには力学の裏付けが欠かせません。GoogleはHill–Clohessy–Wiltshire方程式に基づく解析とJAXの微分可能モデルで、例えば高度約650kmに半径1kmの81機クラスターを想定し、隣り合う衛星が約100〜200mの距離で周回する挙動を評価。太陽同期軌道でも比較的控えめな軌道維持で安定性を保てる見通しを示しました。
ハード側ではTPUの“宇宙耐久テスト”が進みます。Trillium(v6e)を67MeVの陽子ビームに晒した地上試験では、最も敏感なHBMメモリでも累積2krad(Si)を越えるまで顕著な異常は出ず、5年ミッション想定の遮蔽下線量(約0.75krad)を十分に上回る耐性を確認。致命的故障は15kradでも認められなかったと報告されました。
経済面の仮説も示されています。打上げ費用が学習曲線で下がり、2030年代半ばにLEO到達が1kgあたり200ドル未満になれば、衛星の寿命で平準化した“打上げ由来の電力コスト”が、米データセンターの電力単価(kW当たり年額)と概ね並ぶ水準になりうる――という試算です。もちろん熱設計や地上との大容量光通信、オン軌道での信頼性確保など、越えるべき難題は残ります。
ロードマップとしては、まず“学習ミッション”。Planetと組み、2027年初頭までに試験衛星2基を打ち上げ、TPUハードの宇宙動作と分散ML向けの光リンクを実地で検証します。ここを足がかりに、将来は発電・計算・放熱を一体化した“宇宙ネイティブ”設計でのギガワット級クラスターも視野に入るとしています。
地上のAI需要が右肩上がりの中で、「電力は太陽から、計算は宇宙で」という発想は突飛に見えて、実は“物理と経済の線形”に乗せようとする真面目な試みです。地上の制約を逃がしつつ、光で結んだ“空のデータセンター”を組めるか――2027年の小さな実証が、10年先のインフラ像を左右するかもしれません。
2025年10月30日、Googleはリライアンスと組み、Jioの5G無制限プラン加入者に有料の「Google AI Pro」プランを18カ月間、追加料金なしで提供すると発表しました。まずは18〜25歳のユーザーから順次展開し、対象は全国の“適格なJioユーザー”へ広げる構えです。パッケージにはGeminiアプリでの「Gemini 2.5 Pro」優先アクセス、画像・動画生成ツールのNano BananaとVeo 3.1、調査学習向けのNotebookLM拡張、さらにGoogle Oneの2TBストレージ(Photos・Gmail・DriveとAndroidのWhatsAppバックアップを含む)が束ねられ、想定価値は約3万5,100ルピーと案内されています。申込はMyJioアプリから。通信料金と生成AIを“ひとつのオファー”にまとめて大衆化を狙う動きです。
今回の提携について、現地メディアや通信業界紙も一斉に報道。若年層から先行提供して早期に裾野を広げる狙いや、エンタープライズ領域での連携拡大(Gemini Enterpriseの普及)にも言及が相次ぎました。スンダー・ピチャイCEOもXで「18カ月、追加費用なし」の趣旨を投稿し、個人向けの“AI無償化競争”が本格化している印象です。
現場の使い勝手という観点では、画像・動画の生成系が目を引きます。Nano Bananaは写真をもとに自在に編集・生成できる最新機能で、公式ドキュメントやGoogleの発信でも強化が続いています。Veoはクリップの編集精度や演出コントロールを改善した最新版が登場。これらを“通信セット”で配ることで、学生やクリエイターが日常のスマホ体験の延長で高度な生成AIに触れられるようになる—この導線設計がポイントです。
足元の大型投資とも筋が通っています。Google Cloudは10月にアーンドラ・プラデーシュ州ビシャカパトナムで150億ドル規模の「AIハブ」計画を公表。ギガワット級のデータセンターと海底ケーブル陸揚げ拠点を組み合わせ、次世代の低遅延サービス基盤を敷く構想です。端末側の利用を押し上げつつ、裏側ではインフラを拡張する—この二面作戦が、インドにおける“AIの社会実装”を一段と加速させるとみられます。
通信とAIの抱き合わせは、収益モデルの再設計も促します。18カ月の無償期間で日常的にGeminiや生成ツールを使わせ、写真やメールのバックアップで2TBストレージに“定着”させる。期間終了後の継続課金や上位プラン移行、さらには企業向けのGemini活用(エージェントや業務自動化)へと導く導線が描かれているように見えます。インド市場でのAI普及をめぐり各社が“無料攻勢”を強めるなか、通信×生成AIの垂直統合を先行させた点で、今回の提携は象徴的です。
11月3日、Microsoftは「Azure ND GB300 v6」で“100万トークン/秒”の壁を越えたと公表しました。Llama 2 70Bのオフライン推論(MLPerf Inference v5.1、未検証提出)で、1ラック=NVL72構成あたり合計1,100,948トークン/秒を計測。直前世代のND GB200 v6による865,000トークン/秒を27%更新し、1GPUあたりでは約15,200トークン/秒という水準です。実行はTensorRT-LLMのFP4で、ベンチ一式の手順とログも合わせて公開されました。なお“100万トークンの壁”は文脈長ではなく“毎秒の生成トークン数”のことです。
この“速さ”を支えるのがラック一体のNVL72です。72基のBlackwell Ultra GPUとGrace CPUを液冷で密結合し、推論や“推論時スケーリング(test-time scaling)”に最適化。AzureはこのNVL72を18台のND GB300 v6 VMで占有する前提で構成し、HBM帯域・NVLink・NCCLの効率を高めることで、H100世代のND v5比でGEMM性能2.5倍、GPU単体スループット5倍を示したと説明しています。
技術条件も具体的です。1VMあたりGB300×4の合計72GPU、GPUメモリは1基あたり約279GB、HBM帯域は7.37TB/s(効率92%)を計測。CPU-GPU間はNVLink C2Cで従来比4倍の転送速度を得たとしています。測定は18並列ジョブの集計で、第三者のSignal65が“110万トークン/秒”を観測したと添えられました。
業界文脈で見ると、“ラック=1つの巨大アクセラレータ”というNVL72設計が、生成AIの主戦場を“学習中心”から“大規模推論・エージェント実行”へ広げる合図になりつつあります。NVL72は72GPUとGrace CPUを一体運用する前提で、企業はモデルを細かく分割せずに高速HBM領域に収めやすく、長鎖ツール呼び出しやテスト時アンサンブルのような“重い推論”でも待ち時間を抑えやすくなります。
注意点も正直に付記されました。今回の数値はMLPerfの“未検証(unverified)”提出であり、公式検証を経た記録ではありません。それでもAzureがワークロード・レシピ・ログまで公開し、再現手順を示した意義は大きい。トップティアGPUの“実務スループット”が桁を一段上げ、エンタープライズの生成AIを“秒で返す”体験に近づけつつあることが、今回のメッセージです。
2025年10月30日、Perplexityは「Perplexity Patents」を発表しました。発表によれば、これは“世界初のAI特許リサーチエージェント”をうたい、自然言語で「2024年以降の量子計算の主要特許は?」と尋ねるだけで、関連する公報コレクションを提示し、画面内で原文を閲覧できる仕立てです。ベータ版は全世界で即日提供、期間中は無料。Pro/Maxのユーザーには追加クォータやモデル構成の選択肢が付与されます。
最大の変化は“キーワード至上主義”からの離脱です。従来の特許検索は用語や分類の知識がないと網羅性を落としがちでしたが、今回のツールは「フィットネストラッカー」と聞けば「アクティビティバンド」や「歩数計付きウォッチ」といった言い換えも拾い、先行技術の見落としを抑えます。回答は常に出典を伴い、関連トピックの追跡質問を提案。会話のコンテキストも跨いで保持します。
裏側ではエージェントが複雑な質問を情報取得タスクに分解し、Perplexityのエクサバイト級検索基盤に載せた「特許知識インデックス」で反復探索します。必要に応じて、特許文献に限らず論文や公開ソースコードといった“非典型の先行技術”にも踏み込み、技術動向の地図を描き直す狙いです。
この動きは、同社が8月に発表したAIブラウザー「Comet」による体験の垂直統合とも地続きです。検索・要約・閲覧・アクションを自社プロダクトの中で完結させる流れの中で、知財リサーチという高付加価値領域を囲い込む—そんな戦略が見えてきます。
一方、知的財産の世界では“法とデータの取り扱い”が常に注目点です。日本では9月に日本経済新聞社と朝日新聞社がPerplexityを相手取り著作権侵害で提訴するなど、ニュースの二次利用を巡る係争が続いています。特許は公開情報とはいえ、非特許文献の扱いも含めガバナンスは重要になります。プロダクトの価値と法的リスクの両立をどう設計するかが、今後の評価軸になりそうです。
総じて、Perplexity Patentsは「専門家の作法」をプロダクトに埋め込み、誰もが“質問できる速度”で先行技術へ到達する体験を提示しました。R&Dやプロダクト企画の初期段階での下調べ、ベンチマーク、FTOの前段階整理など、現場での“時間の再配分”が期待できます。まずは社内で自然言語クエリのテンプレートを作り、既存の専門ツールと突き合わせながら、どの工程を置き換えると一番効くのかを見極める—そんな小さな導入から始めるのが良さそうです。
OpenAIが10月29日、安全分類に特化したオープンウェイトモデル「gpt-oss-safeguard」を研究プレビューとして公開しました。120Bと20Bの2種類で、いずれもgpt-oss系の微調整版。特徴は“推論時に安全ポリシーを持ち込む”設計で、開発者が書いた規約文をそのまま解釈し、ユーザーの発言や出力、チャット全体を分類します。ポリシーを学習に焼き込む従来型と違い、規約の改訂をその場で反映でき、モデルの推論過程(Chain-of-Thought)も開発者が点検可能。重みはHugging Faceで配布され、ライセンスはApache 2.0です。
この“ポリシー基盤推論”は、ゲーム掲示板のチート談義検知や、レビューサイトの偽レビュー抽出など、各社ごとに線引きが違う領域で威力を発揮します。OpenAIは社内でもSafety Reasonerとして同様の枠組みを運用しており、新モデルはこの手法のオープン実装という位置づけです。モデルはポリシーと入力の2系統を同時に受け取り、結論と推論理由を返すため、出力をそのまま自動遮断に使うもよし、人間の審査支援に回すもよし──という柔軟な組み込みが可能です。
社内運用の具体像も明かされました。OpenAIは新モデルの本番導入初期に安全推論へ多めの計算を割き、運用で得た知見に応じてポリシーを機動的に調整。直近のローンチでは総計算の最大16%を安全推論に投じた例もあると述べます。Sora 2や画像生成では逐次評価で不適切生成をリアルタイムに遮断、バイオや自傷などの高リスク領域では小型の高速分類器で“領域に該当するか”を粗く振り分け、詳細判断をSafety Reasonerに渡す“多層防御”を敷いています。
性能評価では、社内の複数ポリシー同時適用テストで、gpt-oss-safeguard(120B/20B)や社内Safety Reasonerが、より大きな汎用モデルgpt-5-thinkingやベースのgpt-ossを上回る精度を示しました。公開ベンチマークでは、OpenAIの2022年ModerationセットやToxicChatでも競合水準。ただし“数万件規模で作り込んだ専用分類器”のほうが勝るケースがあり、また推論負荷・レイテンシが増えるため、全量監視には小型分類器との組み合わせが前提になる──という限界も正直に記されています。
今回の公開はコミュニティ連携も軸に置きます。ROOSTと協働で開発者向けドキュメントやモデルコミュニティを立ち上げ、実運用の評価事例やポリシー設計の知見を共有するとのこと。用途は安全に限らず、プラットフォーム固有のラベル付け一般にも広がり得るとされ、たとえば“広告の誤解を招く表現”“年齢制限に関わる要素”など、企業独自の規定にも応用できます。
総じて、gpt-oss-safeguardは“安全の線をモデルが自分で学ぶ”から“人間が引いた線をモデルが正しく当てはめる”へ、発想を切り替えた一手です。生成AIの能力が増すほど、安全側も“説明でき、すぐ直せる”ことが価値になります。オープンウェイトで配布された今回のモデル群は、各社の現場ポリシーに合わせて守りの精度を上げる、実務寄りの土台になりそうです。
発表は2025年10月29日。NotebookLMのチャットが「根っこから賢く」なりました。まず、Geminiのフル機能を使うバックエンド改良で、長文・大量資料に対する理解が底上げされ、ユーザー満足度は社内テストで50%改善といいます。さらに会話の前提を保持できる能力を6倍以上に拡張し、分析の深さと一貫性が増したのが今回のコアです。
象徴的なのが“100万トークン”のコンテキスト解放。これまで分割せざるを得なかったレポートや議事録、研究ノートを丸ごと持ち込み、関連部分を横断して問い返せるようになりました。長時間のやり取りでも文脈が途切れにくく、会話の続きは自動保存。履歴はいつでも削除でき、共有ノート上でも自分だけに見えるという扱いで、来週にかけて順次ロールアウトされます。
もう一つの目玉は“ゴール設定”。チャットの設定アイコンから、たとえば「博士課程の指導教員として厳密に批判して」「マーケ戦略リードとして即実行プランだけを返して」「テキストゲームのゲームマスターになって」など、目標・役割・声色を指定できます。NotebookLMは指定したゴールに沿って資料を読み、根拠を踏まえた答え方へ寄せてくれる——いわば“自分仕様の研究パートナー”を、ノートごとに仕立てられるわけです。
現場目線で効くのは、資料探索と要約の“寄せ集め感”が薄まること。NotebookLMは背後で情報の見つけ方と順位付けを強化し、初期プロンプトの外側も自動で当たりにいくため、大きなノートほど洞察の質が安定します。外部メディアの受け止めでも、今回の強化はNotebookLMを“ドキュメント起点の相棒”として一段と実戦向きに押し上げたという評価が目立ちます。
この流れは、数カ月前に公開リンクでノート共有や“AIポッドキャスト”を一般公開できるようにした拡張とも地続きです。個人の調査からチームの知見整理まで、集めた資料にAIで文脈を与え、成果物を共有していく——NotebookLMが“研究の作法”に寄り添う方向へ確実に舵を切っているのが分かります。
実務の導入ポイントとしては、まずは長尺資料が多い業務で効果検証するのが近道です。例えば、製品計画の一次情報をノートに一括登録し、「批判的レビュー役」と「市場戦略役」の二つのゴールを用意。同じ資料から異なる視点の要約・反論・打ち手を並べれば、会議前の“下ごしらえ”が半日単位で短縮されます。競合のメモアプリ群と比べても、今回の“100万トークン×役割指定×履歴の持続”という三点セットは、知識集約の現場で腰の据わった使い方を後押ししてくれるはずです。
11月4日、AWSは米メリーランド州とアイルランド・コーク県を直結する新たな大西洋横断ケーブル「Fastnet」を発表しました。稼働は2028年の見込みで、既存の通信用海底ケーブルとは異なる陸揚げ点を採る“経路多様性”を重視。大規模障害や断線が起きても、クラウドとAIの重要トラフィックを別経路へ逃がす“第二の動脈”を用意する狙いです。設計容量は320Tbps超で、HD映画約1,250万本を同時配信できる規模だと説明しています。
Fastnetは将来の増設も見据えています。海底区間の途中に“光学スイッチ搭載”のブランチングユニットを配置し、トラフィックを新しい陸揚げ点へ振り向けられる可変トポロジを採用。沿岸部では装甲ケーブルと追加の鋼線で物理リスクを抑え、AWSの中央集約型のトラフィック監視と組み合わせて、混雑や異常を“影響が出る前に”避ける運用をうたいます。
発表には両政府の首長もコメントを寄せました。アイルランドのミホル・マーティン首相は、「Fastnetはアイルランドのデジタル未来への信任投票であり、コークを欧州の海底通信“真のゲートウェイ”に押し上げる」と歓迎。メリーランド州のウェス・ムーア知事も、州初の海底光ケーブルがもたらす雇用・投資効果に期待を示しています。
産業文脈では、“クラウド×AIの帯域とレイテンシ”がニュースの核心です。生成AIやエージェント的なアプリは、リージョン間・大陸間のモデル配備やデータ同期に太い回線を要します。FastnetはAmazon CloudFrontやAWS Global Acceleratorの経路多様化とも連動し、米欧間のミッションクリティカルなワークロードに高い冗長性を与える設計です。海底ケーブルが国際データの95%超を担う現実を踏まえれば、自前ルートの追加はクラウド信頼性の“直球の投資”と言えます。
足元のインフラ規模も示されました。AWSの広域ネットワークは地上・海底合わせて900万km超の光ファイバーを敷設し、地球と月の往復11回分に相当。38のリージョンと120のアベイラビリティゾーンを結ぶこの網に、Fastnetが“太い横串”として加わる形です。データセンターの建設・電力・半導体に目が行きがちなAI投資ですが、実は“海の下の道づくり”こそがクラウドの安定運行を支える、とAWSは強調しています。
現地コミュニティとの関係も織り込み済みです。メリーランド東岸とコーク双方にコミュニティ基金を創設し、環境・福祉・STEM教育など地域ニーズに沿った支援を行うと表明。巨大インフラを地域の支持とセットで実現する、最近のハイパースケーラー流の進め方を踏襲しています。
最後に、タイムラインのポイントです。Fastnetは“アマゾン初の単独主導ケーブル”として報じられ、2028年の就役を目標に詳細設計と海底ルートの確定作業が進みます。欧州側の報道は、アイルランドのデータセンター集積と相まって“対米幹線の新設”を歓迎する論調で、通信・データセンター双方のレジリエンス強化という経済的効果が強調されました。
2025年10月29日、ブルームバーグは「オラクルのデフォルト・スワップ(CDS)が2023年10月以来の高水準近辺まで上昇している」と報じました。背景には、同社がAI関連で巨額の投資を続ける中、短期的な信用悪化への警戒が強まっていることがあります。モルガン・スタンレーは実質純債務が現在の約1000億ドルから2028会計年度に約2900億ドルへ拡大すると試算し、5年物CDSと5年債の購入を投資家に推奨しました。
資金調達の現場では、銀行団がテキサス州とウィスコンシン州で建設するデータセンター向けに総額380億ドル規模の社債発行を準備していると伝えられます。AIインフラ関連としては過去最大級のディールで、オラクルは前月にも180億ドルを起債済み。こうした大型調達が積み重なるなかで、信用コストの上振れをヘッジする動きが一段と強まっている、というのが債券市場の見立てです。
この巨額投資の受け皿が、OpenAIが主導するAIインフラ計画「スターゲート」です。同計画は総額5000億ドル、最大10GWの能力確保を目標に段階的に拡張中で、9月には米国内で新たに5拠点を追加する計画が示され、10月には「中西部サイトはウィスコンシン州」とのアップデートが公表されました。
ウィスコンシンではVantage Data CentersがOpenAIとオラクルの両社と組み、新キャンパス「Lighthouse」を開発します。公式発表と業界紙の報道によれば、完成は2028年を予定。テキサスの旗艦拠点と並び、AI計算需要に応える中核インフラとして整備が進みます。
邦銀の関与も目立ちます。JPモルガンやMUFGなどがオラクル関連データセンターの大型融資・与信に参画しており、資金面での後押しが続いています。AI投資がグローバルに資本市場を巻き込むなか、日本勢がメガディールの主幹に入る構図は、為替や金利環境の変化を踏まえた新たな収益機会を示唆します。
とはいえ、投資家の視線は「成長と信用」の微妙な均衡にあります。AIクラウドの前向きな需要見通しがある一方、オラクルのように外部調達を積極化する企業では、調達ペースとキャッシュ創出のタイミングにギャップが生まれやすい。CDSの上昇は、その“つなぎ”を市場がどう評価しているかの実時間シグナルです。スターゲートの案件前進(たとえばウィスコンシンでの具体計画や起工)と、借入条件の消化・リファイの進捗が確認できれば、信用スプレッドが落ち着く余地もあります。逆に、市況悪化や案件遅延が重なる局面では、ヘッジ需要が続く可能性も織り込むべきでしょう。
総じて今回のニュースは、AIインフラの「規模の経済」へ突き進むテック業界と、リスクを精緻に価格付けする信用市場の緊張関係を映しています。企業側は、案件のマイルストーン開示やエネルギー・設備調達の確度を高め、プロジェクト・ファイナンスを含む多層的な資金手当てで“金利×工期”のリスクを圧縮できるかが勝負どころ。投資家側は、拠点ごとのキャッシュフロー見通しと、借換え圧力の山を冷静に見極める局面に入っています。
11月4日、Perplexityは公式ブログで「Bullying is Not Innovation(いじめはイノベーションではない)」と題した声明を公表し、Amazonから“CometがAmazon上で買い物を代行する行為を止めよ”という攻撃的な法的通告を受け取ったと主張しました。Perplexityは、Cometは利用者の端末内に保存された認証情報で本人の代理として操作する“ユーザーエージェント”であり、プラットフォームがそれを一律に排除するのはユーザーの選択権を奪うものだと反論しています。声明内では、Jassy氏の発言を引用しつつ“広告やアップセルを優先している”とAmazonを批判しました。
報道各社もこの応酬を追いました。ロイターは、PerplexityがAmazonからの法的要請を受けたとする事実関係を伝えつつ、Amazon側は第三者ツールが顧客体験を損なう懸念や、サイトの利用規約順守を求めていると反論していると報じています。ブルームバーグも“差止め要求(cease-and-desist)”の送付を確認する関係者情報を掲載し、CometがAmazon上での自動購入を可能にしている点が争点だと整理しました。
テック系メディアは、今回の火種を“AIブラウザ×EC”の主導権争いとして位置づけています。The Vergeは、Amazonが繰り返し停止要請を出し、直近で法的通告に踏み切った経緯を指摘。ヤフー系の配信も、Perplexity側が“いじめ(bullying)”とまで表現した強い物言いを紹介しつつ、Amazonは原則として外部アプリに対し透明性とプラットフォームのルール順守を求めている、と両論併記で伝えました。
技術と法務の境界も論点です。Perplexityは“ユーザーエージェント=本人と同等の権限で動く代理人”でありボットやスクレイパーとは違う、と定義。対してAmazonは、データマイニングや自動化ツールの利用を禁じる規約に照らして不適切だと主張していると報じられています。どこまでが“正当な本人代理”で、どこからが“無断自動化”なのか──AIが“労働”を担い始めた今、線引きが実務上の課題として露わになりました。
産業的な意味合いは重いでしょう。ECは広告と検索の最適化で成長してきましたが、エージェント型AIは“広告を経由せず、最短で買う”行動を増やし得ます。プラットフォーム側のマネタイズと、ユーザーの“任せる体験”のどちらを優先するのか。Perplexityは“ユーザーのためのエージェント”を掲げ、Amazonは“顧客体験の統制と規約順守”を前面に出す。今回の衝突は、その価値観のぶつかり合いを象徴しています。
実務の観点では、企業の皆さんに二点の含意があります。第一に、サイト側は“良質な代理アクセス”と“無断自動化”をどう区別し、APIやパートナー制度にどう収めるかの設計が避けられません。第二に、ユーザー企業は“誰のために動くエージェントか”を見極め、広告・検索経由以外の購買動線が本格化する前提で、商品情報や在庫・価格の提供面を整える必要があります。今回の件は、エージェント時代の“流通OS”を誰が握るかという、次のゲームの開幕宣言でもあるのです。
発表によると、Aardvarkは「ソフトウェアが変化する速度」に合わせて常時走り続ける防御エージェントです。まず接続したリポジトリ全体から脅威モデルを作り、以後は新旧のコミットを文脈込みで見張ります。怪しい変更を見つけると、影響範囲や悪用経路を文章とコード注釈で説明し、隔離サンドボックスで実際に再現して“本当に攻撃できるのか”まで検証。修正段ではCodexでパッチ案を添え、人のレビューを経てワンクリックでPRにできる——開発者の手を止めずに、発見から修正提案までを一本の流れに束ねた設計です。
Aardvarkは従来のファジングやSCA(依存関係解析)の置き換えではなく、人のセキュリティ研究者がやる“読む・考える・試す”をLLMの推論とツール実行でスケールさせるのが肝心。OpenAI社内や外部アルファでの連続運用では、複雑条件下でのみ露見する問題まで掘り当てたといい、ベンチマーク用の“ゴールデン”リポジトリ群では既知+合成脆弱性の92%を検出したと報告されています。
オープンソースへの適用でも成果が出ています。多数の脆弱性を発見して責任ある形で開示し、そのうち10件がCVE付与に至ったといいます。OpenAIは非商用OSSの選定リポジトリに対し、プロボノでのスキャン提供も計画。開示の運用は、9月に更新した“アウトバウンド協調開示ポリシー”に基づき、原則は非公開で協調的に、ただし悪用の兆候など一定条件では公的機関への共有や公表も行う姿勢です。
背景には“ソフトウェアが社会の背骨になった”という危機感があります。2024年だけで4万件超のCVEが報告され、社内テストではコミットの約1.2%が何らかの欠陥を持ち込むというデータも示されました。Aardvarkの狙いは、この“日々生まれる小さな不具合”を早期に拾い、再現で確性を高め、明快な修正案で開発の歩みを止めずに潰していくこと。まずはプライベートベータで多様な現場に出し、検出精度や検証ワークフロー、レポート体験を磨き込んでいく段取りです。
企業にとっては、セキュリティ人材の希少性を“エージェントで補完する”具体策が見えてきました。日常のレビュー線上にAardvarkを差し込み、高リスク変更や主要コンポーネントから順に面で守る。発見からパッチ提案までが一本化されることで、監査対応や説明責任も取りやすくなります。セキュリティチームと開発チームが“同じ画面・同じリズム”で走れるか——その使い勝手が、採用の決め手になりそうです。
11月3日、AWSとOpenAIが複数年の戦略的パートナーシップを発表しました。契約規模は総額380億ドル相当で、即日、OpenAIの主要AIワークロードがAWS上で稼働を開始。AWSはAmazon EC2 UltraServersで“数十万枚規模”のNVIDIA GPU(GB200/GB300)を束ね、必要に応じて“数千万CPU”までスケールさせる構成を提供します。両社は2026年末までに計算能力の主要配備を完了し、27年以降の増強も視野に入れるとしています。
AWS側の設計は、同一ネットワーク上に密結合したUltraServersを重ね、学習からChatGPTの推論、次世代モデルの訓練まで低遅延で回すことを狙います。サム・アルトマン氏は「フロンティアAIをスケールさせる鍵は巨大で信頼できる計算」と述べ、AWSのマット・ガーマンCEOも“高度なAI需要の背骨になる”と強調しました。
この提携は、10月末に結ばれたMicrosoft×OpenAIの「新章」契約とも地続きです。そこで“サードパーティと共同開発するAPI製品はAzure独占、非API製品は他クラウドでも提供可能”という整理が示され、OpenAIが用途に応じてクラウドを使い分ける余地が広がりました。今回のAWS契約は、その枠組みの上で“計算の複線化”を実際に前へ進める一手と言えます。
市場面では、“AWS×OpenAIで380億ドル”という規模感と、GB200/GB300を束ねる新クラスタの具体像が報じられ、株式市場でもポジティブな反応が相次ぎました。大手通信社も、Azure中心だったOpenAIの計算調達が再編後に広がった文脈を伝えています。
実務の延長線では、Bedrock経由でOpenAIのオープンウェイト(gpt-oss系)を使う動きも進んでおり、企業は“モデルの使い分け”と“計算の選び方”を同時に設計する段階に入っています。エージェント実装や長鎖のツール実行のような重い推論にも、クラスタ規模の余裕が効いてくるでしょう。
総じて、今回の発表は“APIの接続性はAzureを軸に維持しつつ、計算の底座標はAWSでも厚くする”という、OpenAIの新しい調達スタイルを象徴します。供給逼迫が続くなかで、UltraServers×GB200/GB300の大規模クラスタをもう一筋確保することは、来年以降のモデル更新やエージェント運用の安定度を高める現実的な打ち手です。
韓国メディアthebellは10月30日、サムスン電子がテスラの次世代AIチップ「AI5」を2nmで量産し、あわせて「AI6」も2nmで手がける計画だと報道しました。量産拠点は米テキサス州のテイラー新工場で、装置の前倒し搬入により当初の2026年末予定から来年第3四半期の稼働開始を狙うとしています。これに対し、TSMCはAI5を3nm系で製造する見通しで、同一世代の案件ながら“サムスンは2nm、TSMCは3nm”という対照的な布陣になります。
この“二社体制”は、イーロン・マスク氏が直近の決算説明会で明言しています。AI5はサムスンのテイラー工場とTSMCのアリゾナ工場の双方で生産し、初期は供給過多を意図的に作って需要に備える方針。マスク氏は「サムスンの米工場はTSMCアリゾナよりわずかに先端装置が進んでいる」とも述べ、米国内での分散製造に実務的な合理性があると強調しました。
背景には、今夏に報じられたテスラとサムスンの大型契約があります。報道各社によれば、総額約165億ドル規模でAI6を中核に据えた長期供給を締結。サムスンのテイラー工場はこの契約で“アンカーテナント”を得て、2nmの量産立ち上げに弾みがついた格好です。
今回のポイントは二つ。第一に、サムスンがAI5を2nmで請け負うことで、最先端世代の“実績”をテスラという看板顧客で積み上げにいくこと。AI4では既に製造実績があるものの、自社APとは異なり外部大口で2nmを通すことの意味は大きい。第二に、TSMCの3nmとサムスンの2nmが同一プログラムで併走するため、歩留まり・性能・コストの“実戦比較”が業界の注目を集めます。もしテイラーの立ち上げが順調なら、AI6や他ビッグテックの2nm案件獲得に波及する可能性が高い。一方で歩留まりやコストが伸び悩めば、“3nm優位”の見立てが強まるリスクも残ります。
さらにAI5は車載だけでなく、ヒューマノイドやデータセンター用途にも拡張される見通しが語られており、米国内製造の冗長化はサプライチェーン耐性の観点でも妥当です。テスラのDojo戦略見直しや外部GPU活用の流れとも合わせて、カスタムASICを“車・ロボ・DC”に跨って回す設計が、今後のテスラ×サムスン/TSMCの協業ピースを決めていくでしょう。
11月3日、Alphabetが欧州でのマルチトランシェ起債を最低30億ユーロ規模でアナウンスしたのを皮切りに、同日中に米欧あわせて“総額ほぼ250億ドル”の大型ディールへ拡大しました。内訳は米国が175億ドルの8本立て(満期3〜50年)、欧州が当初想定を超える65億ユーロの6本立て(満期3〜39年)。米ドル50年債は米国債+1.07%、ユーロは3年がミッドスワップ+25bp、39年が+158bpで条件が固まり、米ドル建てのオーダーブックは900億ドルに達したと伝えられます。幹事はゴールドマン・サックス、HSBC、JPモルガンなど。調達資金は一般目的に充当され、AIおよびクラウド基盤の大型投資を下支えする構図です。
今回のユーロ建てディールは“最低30億ユーロ”でのマーケ開始が先行報道され、その後の需給を映して最終65億ユーロまで積み上がりました。ユーロ市場へのアクセスは今年4月の初回6.75億ユーロ起債に続く2回目で、年内に米欧の両市場を活用する“資金調達の複線化”が鮮明です。
背景の文脈も押さえておきましょう。Moody’sは「ビッグテックはAI計算とクラウド需要の急伸で容量不足に直面」とコメント。同日のリポートでは、今回の社債は一般目的(借換え含む)に充てられると整理しています。実際、同時期にOracleは180億ドル、Metaは3,000億ドルの社債発行に踏み切っており、ハイグレード格の大規模クレジットを“AIインフラの燃料”として使う動きが続きます。
業界的な意味合いは二つ。第一に、米欧の両市場を同時に使うことで投資家層を広げ、調達コストを最適化しつつ満期分散を確保できること。今回も短期はキャッシュ・ファンド、超長期は保険・年金と、厚みのある需要に丁寧に当てています。第二に、AI向けデータセンターの建設・電力・半導体の調達が“数年がかりの固定費”である以上、運転キャッシュフローだけに頼らず、負債で前倒しに資金を厚くする──この資本政策が業界標準になりつつある点です。Alphabet自身も第3四半期の増収を背景にAI・クラウドの伸びを強調しており、今回の調達はその成長路線を長期で支える“燃料補給”と言えるでしょう。
Anthropicは10月29日、日本での事業拡大の節目となる東京オフィスの開設を発表しました。アモデイCEOは来日中に高市首相と面会し、与党のデジタル本部でも講演。さらに日本AIセーフティ・インスティテュート(AISI)と、AIの評価手法や動向監視で協力する覚書(MoC)に署名しました。安全と評価を軸に、政府・企業・文化機関との関係を太くする狙いがにじみます。
評価の国際連携も具体化しています。Anthropicは米国のAI標準化機関CAISIや英国のAI Security Instituteと協働を拡大し、2024年11月には両機関がClaude 3.5 Sonnetの共同評価を実施。国境をまたいだ「共通ものさし」づくりに、日本のAISIとのタッグが加わる格好です。
一方、現場導入の熱も増しています。同社の「Economic Index」では日本のAI採用度が世界上位25%に入り、共同作業や文章編集など“人の判断を補う用途”が広がっていると指摘。国内では楽天が自律型のコーディング案件にClaudeを用い、野村総研は文書解析の所要時間を“時間から分へ”、パナソニックは業務とコンシューマの両面で統合、クラスメソッドはある案件でコードの99%をClaude Codeが生成したと紹介されました。今週は東京で初の「Builder Summit」も開催し、150超のスタートアップと開発者が集うなど、APACの年間ランレートは“この一年で10倍超”と手応えを示します。
文化面の連携も特徴的です。森美術館との提携を長期化し、12月3日開幕の「六本木クロッシング2025」や今後のプログラムに協働で関わると発表。AIを社会に根づかせるうえで、技術と芸術を橋渡しする取り組みを前面に出しています。
足元の日本市場に合わせた配慮も打ち出されました。日本語の敬語や文化文脈への最適化、データ・レジデンシーやコンプライアンスへの対応強化など、企業導入のハードルに直結する論点で方針を明確化。特に国内データ滞留の運用選択肢は、規制産業や大企業の安心材料になりそうです。
最後に拠点戦略です。東京チームの採用を広げつつ、今後数カ月でソウルとバンガロールにも同様のアプローチを展開する計画。安全評価の国際標準づくり、企業での具体ユースケース創出、文化機関との協働という“三本柱”をアジアで横展開していく構想が示されました。
発表は2025年10月28日、会場はワシントンD.C.のGTC。NVIDIAとPalantirは、企業や官公庁の“動く現場”にAIを根づかせるための統合スタックを打ち出しました。PalantirのOntologyとAIPに、NVIDIAのCUDA-Xデータ処理やAI Enterprise、cuOptの最適化、さらにNemotronやNeMo Retrieverといったオープンモデルを組み合わせ、業種別のワークフローとカスタムAIエージェントを標準装備にする構想です。両社のトップは「企業データを意思決定インテリジェンスへ変える」という共通ビジョンを強調しました。
絵に描いた理想ではありません。具体事例として、Lowe’sが世界規模の供給網を“常時最適化”するデジタル双子を稼働。従来は週次で個別ノードを調整していたオペレーションを、需要の揺らぎに合わせて連続的に見直す設計へと移行し、コストと顧客体験の双方を狙います。複数拠点の在庫・配送・人員の再配置まで、cuOptとGPU加速の計算をオントロジーで結線することで、意思決定が実運用の速度に追いつく——これが“運用AI”の肝だと示しました。
技術面では、Palantirの開発者体験にNVIDIAの部品が溶け込みます。Foundry/AIPのモデルカタログからNemotron Super(49B)などのオープンウェイトを呼び出し、Pipeline BuilderやOntology ToolchainにNeMo Retrieverを組み合わせてRAGやOAGを構築。経路最適化や混合整数計画をcuOptで回し、結果をオントロジー上の“業務オブジェクト”に流し込む。さらに次世代のBlackwell世代GPUと“AIファクトリー”設計で、データ前処理からファインチューニング、推論運用までを一気通貫で加速する青写真も描かれました。
経営の視点では、これは“AIのPoC止まり”を脱するための地ならしです。現場のデータと業務手順をオントロジーとして固め、その上にNVIDIAの計算資源と最適化を差し込む。目の前の判断——たとえば在庫の引き回し、ルートの組み替え、重要顧客のアラート——が、AIエージェントの提案として安全に現場へ降りてくる。製造、医療、金融、公共まで広く狙う布陣で、まずは供給網や現場スケジューリングの“動的化”から成果を積み上げる展開が想像できます。
最後に、日本のリスナー向けの着眼点を一つ。国内企業でもサプライチェーンや拠点運営は“人手の経験値”に寄りがちです。今回の統合は、その経験をオントロジーに写し取り、GPU最適化と生成AIの推論で“業務の再現可能性”を高める道具立てと言えます。まずは一つの製品ラインや一つの地域在庫から、オントロジーを作ってcuOptで動かす小さな実装を始める——この一歩が、AI導入の歩留まりを大きく変えてくれるはずです。
10月22日、Baiduはスイスの公共交通事業者PostBusと提携し、東部スイスでロボタクシー「Apollo Go」の実証を行うと発表しました。まず2025年12月に安全ドライバー同乗でのパイロット走行を開始し、2026年には無人試験へ段階移行、遅くとも2027年第1四半期までに定常運行を目指します。対象エリアはザンクトガレン州とアッペンツェル両州(アウサーローデン/イナー・ローデン)で、サービス名は「AmiGo」。座席は最大4名、相乗りにも対応する計画です。今回の枠組みは、州政府に加えて連邦運輸局、連邦道路局、TCS(スイス自動車クラブ)からの支援も得ているとされています。
車両はBaiduの最新EV「RT6」。ステアリングは取り外し可能で、定常運行の段階では“ハンドル無し”の車両として一般提供を狙うと報じられています。これが実現すれば、世界でも珍しい形での公道ロボタクシー提供となり、欧州の受容性を占う試金石になりそうです。
このタイムラインを後押しするのが制度面の整備です。スイスでは2025年3月1日に「自動運転に関するオーディナンス」が施行され、限定条件下での自動運転走行やパイロット運行の要件が明確化されました。公道での自動運転実証に早くから取り組んできた同国において、今回のAmiGoは“公共交通とオンデマンド自動運転の組み合わせ”という新たなユースケースを検証する位置づけになります。
Baidu側の狙いは海外展開の本格化です。同社はすでに中東や香港などでの運用実績を積み、累計の完全無人車両数や提供都市数、走行距離の拡大をアピールしています。スイスでの実証は欧州での初の大規模展開となり、公共交通オペレーターと連携して“路線と配車の間”を埋める移動手段としての妥当性を示せるかが焦点です。
振り返ると、今年5月の時点では「スイスでのテスト計画」は報道ベースにとどまり、PostBus側は正式な提携は未定としていました。そこから制度整備と実務協議が進み、今回の正式発表に至った流れです。中国発ロボタクシーの欧州進出は、各国の受容性や安全要件、データガバナンスを巡る議論を伴いますが、公共交通と組むスイスモデルは「まずは限定地域で公共インフラの一部として評価する」という手堅い道筋と言えます。
10月23日、OpenAIはChatGPTに「Company Knowledge」を導入しました。対象はBusiness、Enterprise、Eduの各プラン。Slack、SharePoint、Google Drive、GitHubなど社内の分散情報を横断し、会話の中で“自社固有の文脈に沿った答え”を提示します。回答には必ず出典が示され、どの文書やチケットから引用したのかをその場でたどれるのが特徴です。基盤には複数ソースを見比べて整合を取るよう訓練されたGPT-5のバージョンが使われています。
使い方はシンプルで、メッセージ入力欄の「Company knowledge」を有効化し、初回に自分の業務アプリを接続すれば準備完了。以後はサイドバーで“いま何を見に行っているか”が可視化され、完成した回答には参照元のスニペットとリンクが並びます。営業の定例に向けたブリーフ作成や、製品リリース後の顧客フィードバック集約と次アクションの提案など、意思決定に必要な断片情報を一つの答えに束ねる設計です。
企業導入で気になるのは統制と安全性です。Company Knowledgeは既存の閲覧権限を尊重し、ユーザーが見られる範囲だけを参照。SSOやSCIM、IP許可リストといった管理機能に加え、Enterprise/EduではEnterprise Compliance APIで会話ログやメタデータを取得し、eDiscoveryや監査・規制対応に活用できます。
連携まわりは“コネクタ”が鍵です。管理者は利用可能なコネクタを制御でき、ユーザーは自分のアカウントで安全に接続。社内ドキュメントを検索・要約して回答へ引用する運用が標準になってきました。なお、GitHubやGoogle Driveのように必要情報を自動同期して回答品質を高める“Synced Connectors”も用意されています。
現時点の制約も明示されています。Company Knowledgeをオンにしている間は、ChatGPTのWeb検索やグラフ作成、画像生成などは使えません(同じ会話でオフに切り替えて継続可能)。また、導入初週にはAsana、GitLab Issues、ClickUpなどのコネクタも順次追加されると案内されています。実務では“まず社内の一次情報で正確に把握し、必要に応じて外部情報に広げる”という、自然なワークフローが取りやすくなりそうです。
総じて、Company Knowledgeは「社内の点在情報を、根拠つきで“いまの全体像”にまとめるアシスタント」を目指す機能です。プロジェクトの温度感が人やツールごとにズレやすい時代に、時系列や出典、権限をきちんと扱いながら意思決定を前に進める──この“実務ど真ん中”の課題に、ChatGPTが正面から踏み込んできた、と言えるでしょう。
10月22日、Googleが社内アプリケーション群をx86だけでなくArmでも動かす“マルチアーキ”体制へ大移行中であることを正式に明かしました。公開された技術ブログとプレプリントによれば、YouTube、Gmail、BigQueryを含む主要サービスはすでにx86とAxionの両方で本番運用され、これまでに3万以上のアプリをArm対応へ移行。対象は10万本超に及び、社内クラスターはx86とArmを併用する状態へと進化しています。
なぜここまでArmなのか。その理由は“効率”に尽きます。Axion搭載インスタンスは、同等の現行x86と比べて最大65%の価格性能、最大60%のエネルギー効率をうたいます。GoogleはBorgでワークロードを両アーキテクチャに跨って配車できるようにし、サーバー利用率と電力効率の底上げを狙います。AxionはArm Neoverse V2を基盤とする設計で、Google CloudやArmの発表がこうした効率指標を裏づけています。
移行作業の“人手の壁”を越える切り札がエージェント「CogniPort」です。ビルドやテストがArmで失敗したら、その場で原因を推論し修正パッチまで自動生成する仕組み。Googleは社内の移行コミット約3.8万件をLLMで分類したうえで、245件を巻き戻して検証し、CogniPortがテスト失敗の修復に約30%成功したと報告しています。移行の大半は“低レベル命令の書き換え”ではなく、テスト・ビルド・設定の地味で反復的な修正だという実態も示されました。
業界文脈で見ると、Googleの動きはAWSのGraviton、MicrosoftのCobaltと同じ潮流にあります。Axionは2024年のCloud Nextで初公開され、x86世代機比で50%の性能向上と60%の効率向上、汎用Arm比で30%高性能という触れ込みで登場しました。同年の報道ではAxionの製造ノードをTSMCの3nmとする観測も流れましたが、これは“報道ベース”でありGoogleからの公式確証は出していません。
日本の技術系メディアでも“全面移行”の背景と影響が整理されました。価格性能と電力効率の改善はデータセンターのTCOを直撃し、Borgのアロケーション自由度が高まるほど、x86購入比率の見直しが現実味を帯びるという見立てです。The Registerも、まだ7万本規模の“ロングテール”移行が残ると指摘しており、CogniPortをはじめとする自動化の磨き込みが成否を分けると伝えています。
10月23日(米国時間)、OpenAIはMac向けAIインターフェース「Sky」を手がけるSoftware Applications Inc.を買収すると発表しました。Skyは“デスクトップ上に浮かぶ”UIで、文章作成や計画、コーディングの最中に画面の内容を理解し、各種アプリでの操作を代行します。OpenAIは「Skyの深いmacOS連携とプロダクトの作法をChatGPTに取り込む」と述べ、チーム全員の合流、そして取締役会の独立委員会承認やサム・アルトマン氏の関与に関する開示にも触れました。
今回の買収は“コンピュータの使い方そのものにAIを溶け込ませる”ための一手です。未公開の段階だったSkyは、AIブラウザに近い発想で“画面を見て理解し、ユーザーの代わりにアプリを横断操作する”ことを売りにしていました。創業者のAri Weinstein氏とConrad Kramer氏は、かつて自動化アプリ「Workflow」をAppleに売却し、現在の「Shortcuts」の礎を築いた人物。もう一人の共同創業者Kim Beverett氏はAppleでSafariやMessages、FaceTimeなどを率いた経歴を持ちます。こうした“OSネイティブの自動化”に長けた人材がChatGPTに合流する意味は小さくありません。
取引条件は非公表ですが、報道によればSkyの親会社は約650万ドルを調達しており、投資家にはOpenAIのサム・アルトマン氏(ファンド経由のパッシブ持分)やFigmaのディラン・フィールド氏らが名を連ねます。ディールはChatGPT責任者のNick Turley氏とApplications部門CEOのFidji Simo氏が主導し、OpenAIの掲示する“アプリの中にAIを埋め込む”戦略を加速させる布陣です。
一方、デスクトップで“画面を読み取り操作する”エージェントは、利便性の裏でプライバシーや安全面の課題も抱えます。TechCrunchは、エージェント的なAIブラウザに関するリスク指摘を引用しつつ、Appleが進めるApple IntelligenceやSiri刷新の潮流も紹介しました。つまり、各社がOSレベルでAIを常駐させる競争に入り、ユーザーの“仕事そのもの”をAIが肩代わりする世界が現実味を帯びている、ということです。
総じて今回の買収は、クラウド上の対話AIから“PCの手と目を持つAI”への進化を一気に前倒しする出来事です。ショートカット文化を熟知したチームがChatGPTのフロントエンドに合流することで、開発者はAPI連携や自動化レシピを組み合わせた“実務に効くエージェント”を作りやすくなりますし、企業にとっても“Mac上の作業を丸ごと自動化”という導入像が具体化します。OpenAIが掲げる「応答するAIから、用を足すAIへ」というビジョンが、デスクトップという生活動線のど真ん中で検証される段階に入ったと言えるでしょう。
10月28日、CODAはOpenAIが9月30日に提供開始した「Sora 2」の運用に関し、要望書を提出したと発表しました。CODAは、Sora 2上で日本の既存コンテンツに酷似する映像が多数生成されている事実を確認したとし、こうした状況では「学習過程での複製行為そのものが著作権侵害に該当し得る」と指摘。①会員社のコンテンツを無許諾で学習対象としないこと、②生成物に関する侵害申立てに真摯に対応すること――の二点を要望しています。
Sora 2は“アプリ+モデル”として9月30日に公開され、OpenAIは責任ある展開や安全策を併せて説明しました。アプリはまず北米での提供から始まり、順次拡大する計画が案内されています。
一方、提供ポリシーでは“権利者のオプトアウト”を前提とする報道や説明が相次ぎ、ハリウッド側の懸念やスタジオの対応も伝えられてきました。Soraの公開直後から「著作権コンテンツの扱い」を巡る論点が噴出し、OpenAIの方針は競合プラットフォームやSNS大手の利害とも交錯しています。
日本側の動きも速い。政府はSora 2の拡散に伴う“アニメ等の模倣”への懸念を表明し、知財権者への事前許諾を求めるよう要請したと報じられました。法制度面では、著作権法第30条の4がデータ解析目的の利用を一定範囲で許容する一方、“創作的表現の再現を狙った学習”に同条がどこまで適用されるのかは実務・学説で整理が進む最中です。
要するに、Sora 2は“創作の民主化”を掲げながら、運用の仕方次第で権利者との摩擦を招く二面性を抱えています。CODAの要望は、オプトアウト前提ではなく“原則・事前許諾”を求める日本の立場を明確化し、学習データと生成物の双方で対話のテーブルを引き寄せる一手と言えます。OpenAI側も安全策や権利者コントロールの拡充を打ち出しており、Sora 2の急拡大と共に“著作権×生成AI”の落としどころを探る実務が、いよいよ正面から試される段階に入りました。