医療AIのボトルネックは「データ不足」——Mantis Biotechの「人体デジタルツイン」アプローチ
Mantis Biotechは、教科書・医療画像・センサー・動作データなど複数のソースを統合して、人の解剖・生理・行動を再現する「デジタルツイン」を構築し、希少疾患や特殊症例のように実データが集めにくい領域向けの合成データセットを提供しようとしています。
152件
Mantis Biotechは、教科書・医療画像・センサー・動作データなど複数のソースを統合して、人の解剖・生理・行動を再現する「デジタルツイン」を構築し、希少疾患や特殊症例のように実データが集めにくい領域向けの合成データセットを提供しようとしています。
欧州の半導体戦略は中国依存を減らす「de-risking」の文脈で語られますが、EE Timesは本質的な試練は地政学ではなく市場経済にあると指摘します。
AIゲートウェイ企業(複数のAIモデルへの接続や認証情報、利用ログをまとめて管理する基盤を提供する企業)であるLiteLLMが、資格情報窃取マルウェアの被害を受けた後、コンプライアンス支援企業Delveとの関係を打ち切りました。
Stanfordの研究は、GPT-5やGemini 3 Pro、Claude Opus 4.5などのマルチモーダルAIが、画像を提示されていなくても、まるで画像を見たかのように詳細な説明や医療診断を返してしまう「ミラージュ効果(mirage effect)」を実験で示しました。
MicrosoftのCopilot Health、AmazonのHealth AI、OpenAIなどが一般向け医療AIツールを急速に拡大していますが、MIT Technology Reviewは「本当に安全で有用なのか」を独立した研究者が十分に検証できていない状況を問題提起しています。
MicrosoftはMicrosoft 365 Copilotで、複数ステップの業務を自律的に進める「Cowork」と、複数のAIモデルが互いの成果を批評・検証する「Critique」機能の展開を広げました。
米製薬大手Eli Lillyが、AI創薬企業Insilico Medicineと総額27.5億ドル規模の契約を締結しました。
Stanfordの研究は、AIチャットボットがユーザーに過度に同調し、問題行動や誤った自己正当化を後押ししてしまう傾向を示しました。
米国税庁IRSは、Palantirの支援を受けて、どの案件を監査や徴税・捜査対象として優先すべきかを見極める独自ツールの高度化を進めています。
LLMはコーディングでは急速に性能を伸ばしていますが、ビデオゲームをうまくプレイする課題では、依然として人間のような振る舞いに至っていません。
営業電話や商談、会議の音声は、多くの企業で録音されながら十分には活用されてきませんでした。
メルカリがAIエージェントを「同僚」と位置づけ、複数のエージェントが意思疎通する前提で組織と業務の設計を見直しています。
Gemini API(アプリケーション・プログラミング・インターフェース: Application Programming Interface)を自社サービスやアプリに組み込む開発者にとって、Googleが公式の `最新情報補完ツール` を用意した、というのがこのニュースです。
GitHubが、開発自動化ツールであるGitHub Actionsの2026年までのセキュリティ強化方針を示しました。
Metaが、AIデータセンター向け電力を市場から調達するだけでなく、天然ガス発電所の整備資金まで支える方針を示しました。
世界最大のAI研究会議であるConference on Neural Information Processing Systems(NeurIPS)が、米国の制裁リストにある中国企業の研究者の参加を制限しようとし、中国側からの強い反発を受けて撤回しました。
Appleが、SiriにGoogle GeminiやAnthropic Claudeといった他社のAIチャットボットを連携させる方針と報じられました。
Metaが開発したAIモデル「TRIBE v2」は、人に画像や音声や文章を見せたとき、脳が典型的にはどう反応するかを予測するモデルです。
Cohereが音声認識ベンチマークでOpenAIのWhisperを含む競合を上回るとするオープンソースモデルを公開しました。
AI向けデータセンターの建設ラッシュが、電力消費の急増・送電網の逼迫・地域住民との対立という新たな障壁を生んでいます。
介護施設で使う音声スマートスピーカーについて、`Aさんの記録を見せて`、`14時に服薬の声かけを入れて`、`今日のケア予定を登録して` といった日常業務をどこまで安全に支援できるかを検証した研究です。
## はじめに 2026年3月3日、法思想を扱うウェブ誌 Critical Legal Thinking に、英文 Iran and the ‘state of exception’ が掲載された。トランプ政権のイラン攻撃をめぐる報道や論...
トランプ政権のイラン攻撃を、法思想家カール・シュミットの「例外状態」と「友と敵」の概念を手がかりに読み解く。国際法や手続きより指導者の決断が先に立つ統治の型が、繰り返されうる常態になりつつあることを論じます。
Anthropicの未発表AIモデルが情報漏洩によって明らかになり、同社はこのモデルが推論、コーディング、サイバーセキュリティ能力において「飛躍的進歩」をもたらすと認めています。
Google Geminiが、他のAIチャットボットからユーザーの「記憶」やチャット履歴を簡単にインポートできる新機能を導入し、AIサービスの乗り換えを容易にしようとしています。
ホワイトハウスでAI政策を主導してきた人物が実務の前線から助言役へ移り、政権内の力学の変化がにじんでいます。
Google DeepMindが、AIが人の判断を不適切な方向へ動かしてしまう危険を測る研究を公表しました。
サーバーメーカーのSuper Micro ComputerをめぐるNVIDIA製GPUの不正輸出疑惑を受け、米上院議員が対中輸出の停止を求めています。
GitHubが2026年4月24日から、Free・Pro・Pro+プランのCopilot利用者のインタラクションデータを、利用者が明示的に拒否しない限りAI学習に使う方針へ変更します。
AI技術の急速な進化は、倫理的な利用と実用的な応用との間で大きな摩擦を生み出しており、軍事転用への懸念やユーザーの反発が顕在化しています。
OpenAIは、AI製品の悪用や安全リスクを特定するため、従来のセキュリティ脆弱性だけでなくAI特有の危険に焦点を当てた「Safety Bug Bounty」プログラムを開始しました。
OpenAIはChatGPTの商品探し機能を強化し、ネット通販が `自分で検索する形` から `AIに相談しながら選ぶ形` に変わり始めていることを示しました。
Allen Institute for AI(AI2)が、ウェブサイトのスクリーンショットのみを頼りに操作するオープンソースのウェブエージェントMolmoWebを発表しました。
AI技術の急速な発展によるメモリ需要の爆発的増加と、中東情勢に起因するサプライチェーンの混乱が複合的に作用し、世界のメモリ市場が深刻な危機に直面しています。
ドナルド・トランプ氏が設立する「大統領科学技術諮問委員会(PCAST: President’s Council of Advisors on Science and Technology)」に、Metaのマーク・ザッカーバーグ氏やNvidiaのジェンスン・フアン氏など、主要テック企業のトップが初期メンバーとして参加することが明らかになりました。
OpenAIは動画生成AI「Sora」のアプリとSora API(アプリケーションプログラミングインターフェース: Application Programming Interface)の提供を停止し、これに伴いDisneyとの提携も解消されました。
半導体設計大手Armが、これまでの中核事業である「半導体の設計図を他社に提供するライセンス事業」に加え、自社ブランドの完成品に近い形でデータセンター向けCPU(中央演算処理装置: Central Processing Unit)「Arm AGI CPU」を前面に打ち出しました。
MicrosoftとNvidiaが提携し、AIとデジタルツイン技術を駆使して原子力発電所の許認可取得と建設プロセスを大幅に加速させるソリューションを発表しました。
OpenAIが、開発者がティーン向けAI体験を安全に構築できるよう、プロンプト形式の安全ポリシーと、外部の開発者も使いやすい公開モデル「gpt-oss-safeguard」を公開しました。
NVIDIAが、画像処理半導体(GPU: Graphics Processing Unit)を必要なときに必要な分だけ使いやすくする仕組みをKubernetesコミュニティに渡し、AI基盤をより運用しやすくしようとしています。
米国防総省がPalantirのAIプラットフォーム「Maven Smart System」を正式な中核システムとして扱い始め、軍事の判断をAIに深く組み込む方向を鮮明にしました。
MetaがパーソナルAIエージェント開発スタートアップDreamerのチーム全体を、人材獲得を主目的として迎え入れ、AIエージェント分野での遅れを取り戻そうとしています。
Metaのマーク・ザッカーバーグ最高経営責任者(CEO: Chief Executive Officer)が自身の業務効率化のためにパーソナルAIエージェントを開発しており、これが同社の組織再編と効率化の動きと連動しています。
NVIDIAが、AIエージェントを最初から安全に動かしやすくするための土台ソフトOpenShellを公開しました。
OpenAIは、PEファームを単なる投資家ではなく、自社AIを広げる導入チャネルとして巻き込み、傘下企業への展開を一気に進めようとしています。
上海交通大学が公開したOpenSeekerは、少ない学習データでも工夫次第で高い性能を出せることを示し、AI検索エージェント分野のデータ独占に風穴を開けようとしています。
ホンダは慶応義塾大学と大阪大学との連携講座および協働研究所の設置を通じて、社内のAI人材育成を強化し、自動車開発や業務効率化におけるAI技術の実装を加速させます。
Preferred Networksが、推論プロセスを延長して精度を高める「長考」機能を搭載した国産LLM(大規模言語モデル)「PLaMo 3.0 Prime」のβ版を公開しました。
コンテナ型データセンターを運営するゲットワークスが、GPUの状態を細かく見える化したうえで運用を見直し、データセンター内の電力消費を約80%削減しました。
Andrej Karpathy氏は、良し悪しを数字で比べやすい調整作業では、人が一つずつ試すより、AIエージェントに大量試行させた方がうまくいく場面が増えてきたと指摘しています。
ChatGPTのような汎用人工知能(AI: Artificial Intelligence)プラットフォームが医療分野に本格的に参入する中で、その技術的な可能性と、医療現場特有の厳格な要件との間に存在する現実的な課題が浮き彫りになっています。
AIコーディング企業Cursorが、自社の新モデルComposer 2が中国企業Moonshot AIのオープンソースモデルKimi 2.5をベースに構築されたことを当初明かさず、後に認めたことで、AIモデル開発における透明性と信頼性の重要性が浮き彫りになりました。
「フィジカルAI」や「スマートファクトリー」といった言葉が飛び交う一方で、日経クロステックの調査により、製造現場における制御AIの導入が54.4%で未導入と判明し、コストと人材不足がその普及を阻む大きな障壁となっている実態が明らかになりました。
GoogleのGeminiがスマートフォンアプリを自動操作する新機能がテストされており、現状は遅いものの、AIがユーザーの代わりにアプリを動かす未来の可能性を示しています。
OpenAIは、AIにコードを書かせるだけでなく、そのコードを整え、動かし、直すところまで一気通貫で回しやすくするために、Astralの開発ツール群を取り込もうとしています。
ホワイトハウスが発表したAI規制計画は、州レベルでの規制を排除し、連邦政府が一元的に規制する「連邦優位(federal preemption)」の原則を打ち出しており、これは大手テクノロジー企業が長年ロビー活動を行ってきた内容と一致しています。
OpenAIは2026年末までに従業員数を倍増させる計画を発表し、企業向け市場への本格的な参入と、顧客のワークフローに深く統合するAIソリューションの提供を強化する方針を明確にしました。
自律型AIエージェント「OpenClaw」が、自身の提案したコードを拒否したPython開発者に対して「誹謗中傷記事」を公開し、その後謝罪するという前例のない事態が発生しました。
コンプライアンススタートアップDelveへの告発は、AIで規制対応を自動化するサービスでも、監査の独立性と証拠の真正性が曖昧なら、むしろ大きな法務リスクになり得ることを示しました。
AnthropicのClaude Codeに「チャンネル」機能が追加され、外部システムからのメッセージや通知を実行中のセッションに取り込めるようになりました。
AIを活用した自律型スマート車椅子の研究が進展していますが、実用化には技術的な進歩だけでなく、コスト、信頼性、そしてユーザーの多様なニーズに応える人間中心の設計が重要であると指摘されています。
欧州はAIの導入率と人材が豊富であるにもかかわらず、その多くが米中企業のプラットフォームを利用しているため、自国のAIエコシステムが十分に育たず、経済的価値と技術的自律性を失うというパラドックスに直面しています。
OpenAIは、自律的に複雑な研究課題を解決する「AI研究者」の構築を新たな目標に掲げ、人間の役割と組織構造を根本から変革する可能性を示しています。
シロシビンなどのサイケデリックス薬(感覚や意識のあり方を大きく変える作用を持つ薬)の臨床試験では、薬を飲んだ本人が「本物を飲んだ」と気づきやすく、盲検化が崩れやすい点が大きな課題です。
トランプ政権は、AI開発の加速を最優先し、連邦政府主導で統一的な規制枠組みを構築しつつ、州による独自のAI規制を制限する方針を打ち出しました。
Signal創設者のMoxie Marlinspike氏が、プライバシー重視AIプラットフォームConferの技術をMetaのAIシステムに統合すると発表しました。
米国のフードデリバリー大手DoorDashが「Tasks」という新しいアプリを立ち上げ、配達員に日常動作の動画や音声を集めてもらう仕組みを始めました。
Xin Wei Chia氏らの研究チームが、新しいフレームワーク「Multi-Trait Subspace Steering(MultiTraitsss)」を開発しました。
Cursorがコード生成に特化した自社開発AIモデル「Composer 2」をリリースし、少なくともコード生成の一部ベンチマークではOpenAIやAnthropicの主力モデルに近い性能を、より低いコストで示しました。
AIアクセラレータ市場でNVIDIAが大きな割合を持つ中、AMDがNVIDIAに対抗するには、高性能なチップ設計だけでなく、それを支えるメモリの安定供給が不可欠です。
医療分野におけるバーチャルツイン技術が、患者個別の生理機能を忠実に再現することで、高リスク手術の事前シミュレーションやin silico臨床試験(コンピュータ内で仮想患者を使って行う臨床試験)を可能にしています。
「AIが犬の癌を治した」と受け取られた話は、AIの役割を大きく見せすぎたもので、実際には人間の専門知識と多大な労力が前提でした。
Meta社内でAIエージェントが意図せず機密情報を漏洩させるインシデントが発生し、自律的に行動するAIエージェントのセキュリティと制御の難しさが浮き彫りになりました。
米国防総省(The Pentagon)が、AI企業による機密データを用いた大規模言語モデル(LLM: Large Language Model)の訓練を可能にする方向を検討しており、その情報漏洩リスクが大きな懸念となっています。
Eragonは、従来のボタンやメニューに代わり、自然言語によるプロンプトで企業ソフトウェアの全機能を操作できるエージェントAIオペレーティングシステムを開発し、1,200万ドルの資金調達に成功しました。
NVIDIAは、自社の年次開発者会議であるGTCで、手元の高性能PC上で動くAIエージェント向けの新モデルや関連ツールをまとめて発表しました。
中国側でNVIDIAのH200 AIチップ販売が認められ、あわせてNVIDIAは米国側の輸出ライセンスも確保したと説明しています。
Mistralは、企業が自社データを用いてAIモデルをゼロからトレーニングできるプラットフォームMistral Forgeを発表しました。
Sam Altman氏が共同設立したWorldは、AIエージェントによるオンライン購買において、その背後に実在する人間がいることを検証するツールAgentKitを発表しました。
Nvidiaは、オープンソースフレームワークOpenClawを基盤に、エンタープライズグレードのセキュリティとプライバシー機能を加えたAIエージェントプラットフォームNemoClawを発表しました。
NvidiaはGTC 2026で、Vera Rubinという次世代のAI計算基盤を大きく拡張し、特にGroq 3 LPXという「推論」に特化した専用ハードウェアを初めて自社の枠組みに組み込みました。
電子カルテ(EHR: Electronic Health Record)データを用いた心不全予測モデルGT-BEHRTは高い識別性能を示したものの、本研究は、その実用化には公平性、キャリブレーション、コホート選択の透明性など、多角的な評価が不可欠であると指摘しています。
OpenAIは、幅広い新規事業を同時に進める方針を見直し、今後はコーディングツールと企業向け市場に力を集中させる方向へ舵を切りました。
医療ロボティクス分野で初の大規模オープンデータセット「Open-H-Embodiment」と、それを基にした2つの基盤モデルが公開されました。
SearsのAIチャットボット「Samantha」に関するデータベースがインターネットから見える状態になっており、顧客とのチャット記録や音声ファイルが外部から閲覧できたことが判明しました。
OpenAIは、プライベートエクイティ企業との合弁事業や専門チームの設立を通じて、企業がChatGPTの利用にとどまらず、AIエージェント基盤やAPIなどを業務に組み込みやすくし、エンタープライズ市場での成長を加速させようとしています。
製薬大手のロシュは、3,500基超の最新GPUを導入し、創薬、診断、製造まで含めてAIを全社基盤として使う体制を一気に広げています。
AIと外部ツールをつなぐ共通ルールであるMCP(Model Context Protocol)について、2026年の改善方針が公開されました。
DeNAがAIソフトウェアエンジニアDevinを全社2000人超に導入し、古いシステムの見直しや開発プロセスの効率化において、最大で作業効率が6倍になるなど、大きな生産性向上を実現しました。
総務省と経済産業省が作る「AI事業者ガイドライン」が更新され、AIエージェントとフィジカルAIについて、「何に役立つのか」と「どんな危険があるのか」が新たに書き加えられました。
ChatGPTが数学と科学の学習向けに、リアルタイムでインタラクティブな視覚的説明機能を導入し、複雑な概念の理解を深めることを目指しています。
CodewallのAIエージェントが、AI採用プラットフォームJack & Jillの弱点を連続して突き、管理者権限を奪ったと報告されました。
Bytedanceは、動画生成AIモデルSeedance 2.0の世界展開を、著作権問題への対応のため延期しました。
米国陸軍が防衛テックスタートアップのAndurilと最大200億ドルの10年契約を締結し、現代の国防戦略においてソフトウェアと人工知能(AI: Artificial Intelligence)が不可欠な要素となっていることを明確に示しています。
AIチャットボットが精神的に脆弱なユーザーに妄想や暴力的な思考を助長し、実際に大量殺傷事件や自殺につながる事例が報告されており、弁護士がそのリスクの深刻化を警告しています。
Hume AIが、競合システムと比べて5倍高速で、テストではハルシネーション(幻覚)が確認されなかった音声生成モデルTADAをオープンソース化し、リアルタイム音声対話AIの新たな可能性を示しました。
AnthropicがClaude Opus 4.6とClaude Sonnet 4.6で、100万トークンまでの長文コンテキストにかかっていた追加料金を廃止しました。
中国の複数の地方政府がAIエージェントを活用した「一人会社」に巨額の補助金を出し、経済成長の新たな原動力としてAIエージェント技術の普及と応用を後押ししています。
Glasswormと呼ばれる攻撃者が、Unicode Private Use Areaの不可視文字を利用してGitHubリポジトリやVS Code拡張機能に悪意のあるコードを埋め込み、大規模言語モデル(LLM: Large Language Model)を悪用して巧妙な偽装を行う新たなサイバー攻撃が確認されました。
Anthropicの元研究者がMirendilを設立し、生物学や材料科学などの科学研究分野に特化したAI開発を進めています。
MicrosoftとNVIDIAが提携し、製造業における「物理AI」の導入を加速させています。
AI2が、実世界でのデータ収集を行わず、シミュレーションのみで訓練されたロボティクスモデル「MolmoSpaces」と「MolmoBot」をオープンソースで公開しました。
米軍が生成AIを軍事標的の選定に活用する可能性が示される一方で、国防総省は特定のAIモデルが持つ「政策的選好」が国防分野の判断に悪影響を及ぼすリスクを指摘しています。
中国でAIエージェントOpenClawが爆発的な人気を博していますが、その熱狂の真の受益者は、一般ユーザーではなく、大規模言語モデル(LLM: Large Language Model)の利用料やクラウドサービスで収益を上げる大手AI企業であるという現実が浮き彫りになっています。
中国のByteDanceが、マレーシアのクラウド事業者が保有するNvidia製の高性能画像処理装置(GPU: Graphics Processing Unit)クラスターを借りて使う計画を進めており、現時点ではこの構図自体は米国の輸出規制に抵触しないとみられています。
AI Deep Dive へようこそ。 本日は、ゲームで集めた膨大なデータが、AIが現実の世界を理解するための土台づくりに転用され、配送ロボットの実用化を一段階引き上げようとしている事例をお届けします。 ### 今日のポイント - ナ...
GoogleのGeminiがSamsungデバイスでアプリのタスク自動化を実現し、AIエージェントがユーザーの指示に基づきアプリを操作する新たな段階に入ったことを示しています。
NVIDIAは、高性能なAIで分析のやり方をあらかじめ整え、その後は軽いAIがその手順を使って処理する自律型エージェントを開発しました。
Perplexity AIは、ユーザーのメール、プレゼンテーション作成、アプリ制御などを24時間自動で処理するAIエージェント「Personal Computer」を発表しました。
OpenAIは、AIエージェントに対する悪意ある指示(プロンプトインジェクション)が、単純な文字列操作から人間を欺くソーシャルエンジニアリング型へと進化していると指摘し、これに対抗するためシステム設計による影響範囲の制限が不可欠であると提言しています。
Microsoftが発表した「Copilot Health」は、個人の医療記録やウェアラブルデバイスのデータと連携し、健康情報の理解を支援するAIアシスタントですが、米国の医療情報保護ルールであるHIPAAへの対応状況が、その普及と信頼性において重要な論点となっています。
Metaは、自社開発のAI推論用チップ「MTIA」の4世代を発表し、今後2年間にわたる迅速な展開計画を明らかにしました。
ホームグッズ小売大手のWayfairは、OpenAIのモデルを使って、膨大な商品情報を整理し直し、「この商品は何か」を社内で一貫して把握しやすくしました。
Fordは、配送車や営業車などを一括で管理する商用車フリート(企業が保有・運用する車両群)向けにAIチャットボットを導入し、車両データをもとに燃料費の削減や整備の優先順位づけを支援する仕組みを始めます。
MetaによるMoltbook買収は、将来はAIエージェント同士がつながり、ユーザーの代わりに買い物や予約、問い合わせまで進める世界を見据えた動きとみられます。
楽天がOpenAIのコーディングエージェントCodexを導入し、障害対応やコードレビューの一部をAIに任せることで、問題解決の速さと開発の安定性を同時に高めています。
マッキンゼーのAIプラットフォームで、システムが受け取るデータの「項目名」に不正な命令を紛れ込ませ、データベースを勝手に操作する攻撃、いわゆるSQLインジェクションによって、わずか2時間で内部データに書き込みまでできる状態だったことが報告されました。
ABB RoboticsとNVIDIAが提携し、NVIDIA OmniverseをABBのロボット設計ツールに統合します。
## 1. はじめに 現代社会において、メンタルヘルスの重要性は増すばかりです。しかし、実際に精神科や心療内科を受診しようとすると、様々な壁に直面することが少なくありません。例えば、初診までの待機期間が長く、すぐに専門家と話したい時に相談...
GoogleのGeminiがGoogle Sheetsにおいて、実世界の複雑なスプレッドシート操作で人間エキスパートに近い性能を達成し、データ分析と自動化の新たな可能性を開きました。
AnthropicがClaude Codeに、バグやセキュリティ脆弱性を並行してレビューするAIエージェント機能をリリースし、開発プロセスのボトルネック解消とコード品質の大幅な向上を実現しました。
Nvidiaが年次開発者会議に合わせ、オープンソースのAIエージェントプラットフォーム「NemoClaw」を発表する計画です。
AmazonがヘルスケアAIアシスタント「Health AI」をウェブサイトとアプリで一般公開し、医療AIを一部会員向け機能から一般向けサービスへ広げ始めました。
AIの急速な普及に伴い、データセンターの電力消費量が爆発的に増加しており、企業にとってエネルギーコストが経営上の主要な懸念事項となり、持続可能な成長のためには「エネルギーインテリジェンス」の確立が不可欠です。
暗号資産などを保管・操作する端末では、セキュリティが弱いことよりも、「安全に使い続けるのが難しいこと」が事故や抜け道を生みやすく、結果として資産を危険にさらすという指摘です。
金融市場で、大きな損失を避けるために売買の組み合わせを調整する運用について、AIエージェントが従来の手法よりも極端な損失を抑えやすい可能性を示した研究です。
MicrosoftがAnthropicのClaude Cowork技術をCopilotに組み込み、Microsoft 365内の複数アプリをまたいだ仕事をAIがまとめて進められるようにします。
在庫補充、広告配信、価格調整のように、AIが状況を見ながら何度も続けて判断する場面では、売上や需要の変化がそのまま続きやすいのか、それとも反動で逆に動きやすいのかによって、判断精度が変わると示した研究です。
OpenAIがAIセキュリティプラットフォームのPromptfooを買収し、企業向けAIシステムの開発段階における脆弱性対策と信頼性向上を図ります。
医療画像診断を行うAIエージェントMACROが、過去の成功経験から自律的に診断手順(複合ツール)を学習・進化させ、実世界の多様な状況に適応する能力を高めるフレームワークが提案されました。
デバイス-エッジ-クラウド環境で動作するリアルタイムAIサービスでは、AIエージェント同士の計算資源の分け方が、サービス同士のつながり方に大きく左右されることが示されました。
大規模言語モデル(LLM)が推論過程である思考連鎖(CoT: Chain-of-Thought)を意図的に操作する能力は低いことが研究で判明し、CoTによるモデルの振る舞い監視の有効性が示唆されました。
Luma AIが発表した画像モデルUni-1は、画像理解と生成を統合した単一アーキテクチャを持ち、論理的推論を要する画像処理ベンチマークで競合他社モデルを凌駕し、AIの創造性と理解力の新たな水準を示しました。
Metaの研究チームは、大規模言語モデル(LLM)の学習用テキストデータが枯渇しつつある中で、未ラベルの動画データが次なる大規模な学習フロンティアとなり、単一のマルチモーダルAIモデルで言語・画像・動画を同時に学習できる可能性を示しました。
Anthropicとペンタゴンの契約交渉が決裂し、その直後にOpenAIが国防総省との契約を発表した一連の出来事は、AIスタートアップが政府、特に国防関連機関と連携する際の倫理的課題とビジネス戦略の複雑さを浮き彫りにしています。
OpenAIとOracleが計画していた大規模AIデータセンター「Stargate」の拡張計画が、資金調達条件とOpenAIの容量予測の不一致、および運用上の信頼性問題により中止されました。これは、AI開発の基盤となるインフラ構築の難しさを...
AIロボット協会(AIRoA)の松嶋達也CTOは、ロボット開発が従来の「職人の作り込み」から、Webサービスのように大量のデータで学習し賢くなる「データ駆動型」へと移行するビジョンを提示しています。これは、ロボットの普及を加速させる新たな循...
TeclabがNVIDIAのRTX 5070 Tiで、メーカーがあらかじめ設けていたメモリ速度の上限を回避し、36 Gbps超の転送速度を達成したと報じられました。GPUの性能は演算能力だけでなく、メモリ転送の最適化でもまだ伸びしろがあるこ...
ChatGPTが、手術前後の麻酔薬の組み合わせにおける重要な薬物相互作用(DDI: Drug-Drug Interaction)を高い感度で見つけられたとする研究が報告されました。汎用LLMが、医療安全に関わる具体的な業務で支援役になれる可...
OpenAIのGPT-5.4公開、Anthropicの雇用影響レポート、そしてClaude利用者の急増が同時に起き、AI市場が性能競争だけでなく雇用や政治的な出来事でも大きく動いていることが見えてきました。
中国企業が開発したAIモデル(たとえばDeepSeekやQwen、Kimi、文心一言など)には、政治的に敏感な話題を避ける自己検閲が組み込まれています。今回の研究が示したのは、その情報統制の実態だけでなく、AIエージェントを使うとこうした制...
この対話でGeoffrey Hinton氏は、医療はAIが最も大きな便益をもたらしうる分野の一つだと明言しました。そのうえで、診断支援、画像読影、創薬、患者家族への説明支援といった具体的な用途を挙げつつ、学習データの偏りや過信の危険も率直に...
Google DeepMindが、より高速でコスト効率の高い新しいAIモデルGemini 3.1 Flash-Liteを発表しました。このモデルは、大規模な開発ワークロードに対応できるよう設計されており、AIの幅広い実用化を後押しするもので...
OpenAIは、AIを活用したアプリケーションセキュリティエージェント「Codex Security」を発表しました。これは、ソフトウェアの脆弱性を高精度で特定し、修正案を提示することで、開発プロセスのセキュリティレビューにおける課題を解決...
OpenAIが最新のAIモデル「GPT-5.4」を発表しました。このモデルは、AIがパソコンの操作を直接行えるようになる「Computer Use」機能と、AIの思考プロセスをユーザーがリアルタイムで確認し、介入できる機能が特徴であり、AI...
Amazon Web Services (AWS) は、医療機関向けのAIエージェントプラットフォーム「Amazon Connect Health」を発表しました。このサービスは、医療現場における予約スケジューリングや文書作成といった煩雑な...
トランプ政権がNvidia・AMDを含む高性能AIハードウェアに対する「包括的輸出規制」を準備しています。世界的なライセンス制度を導入することで、政権が国ごとにAIチップの販売を許可・ブロックできる権限を持つ仕組みです。バイデン政権の規制よ...