<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"><channel><title>ai_report</title><description>主要な生成AI（GPT / Claude / Gemini / Llama / Mistral / DeepSeek 等）のリリース・ニュースを時期 × ベンダー × プロダクト × トピック × モダリティの5軸で分類するアーカイブ</description><link>https://ai-report.kazuna-kav.workers.dev/</link><language>ja</language><item><title>AlexNet が ImageNet で圧勝 — 深層学習復活の象徴</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2012/alexnet-imagenet/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2012/alexnet-imagenet/</guid><description>Krizhevsky・Sutskever・Hinton（トロント大）が GPU 学習した CNN 「AlexNet」が ImageNet ILSVRC 2012 でトップ 5 エラー率を 25.8% → 15.3% に劇的改善。深層学習の再ブレイクのきっかけ。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>academic</category><category>research-paper</category></item><item><title>word2vec 論文公開（Mikolov ら）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2013/word2vec-mikolov/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2013/word2vec-mikolov/</guid><description>Mikolov らが Google で開発した word2vec が公開され、ニューラル単語埋め込みが現代 NLP の基礎になった。CBOW と Skip-gram の2モデルを提案。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>google-deepmind</category><category>academic</category><category>research-paper</category></item><item><title>GAN（敵対的生成ネットワーク）論文公開（Goodfellow ら）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2014/gangoodfellow/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2014/gangoodfellow/</guid><description>Goodfellow ら（モントリオール大）が Generative Adversarial Network (GAN) を提案。生成器と識別器を min-max で対立させる新枠組みで、その後の画像生成研究の礎になった。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>academic</category><category>research-paper</category></item><item><title>Seq2Seq 論文公開 — 機械翻訳に深層学習が本格適用</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2014/seq2seq/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2014/seq2seq/</guid><description>Sutskever・Vinyals・Le（Google）による Sequence to Sequence Learning。LSTM ベースのエンコーダ・デコーダ構造で機械翻訳の SOTA を更新し、後の Attention / Transformer への道筋を作った。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>google-deepmind</category><category>academic</category><category>research-paper</category></item><item><title>ResNet 論文公開 — 残差接続で超深層 NN を実現（He ら）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2015/resnet-nn-he/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2015/resnet-nn-he/</guid><description>Microsoft Research Asia の He Kaiming らが Residual Network (ResNet) を提案。skip connection で 152 層の超深層 CNN を学習可能にし、ImageNet で人間超え精度を達成。以後の深層 NN 設計の標準に。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>microsoft</category><category>academic</category><category>research-paper</category></item><item><title>AlphaGo が Lee Sedol を破る — AI による囲碁制覇</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2016/alphago-lee-sedol-ai/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2016/alphago-lee-sedol-ai/</guid><description>DeepMind の AlphaGo がトップ棋士 Lee Sedol を 4-1 で破る歴史的勝利（韓国・ソウル）。Monte Carlo Tree Search + 深層学習 + 強化学習の組み合わせで、難題と考えられていた囲碁を制覇し AI 一般の注目度を一気に高めた。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>pre-transformer</category><category>google-deepmind</category><category>capability-update</category></item><item><title>Attention Is All You Need 公開（Transformer 提唱）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2017/attention-is-all-you-need-transformer/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2017/attention-is-all-you-need-transformer/</guid><description>Vaswani ら（Google Brain / Google Research）による Transformer アーキテクチャ提唱論文。Self-Attention のみで RNN/CNN を不要に。NeurIPS 2017 採択。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>transformer-era</category><category>google-deepmind</category><category>academic</category><category>research-paper</category></item><item><title>GPT-1 公開 — 生成事前学習 + ファインチューニング枠組み</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2018/gpt-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2018/gpt-1/</guid><description>Radford ら（OpenAI）が「Improving Language Understanding by Generative Pre-Training」を公開。Transformer デコーダで言語モデルを事前学習 → タスクに fine-tune する GPT 系列の起点。1.17 億パラメータ。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>transformer-era</category><category>openai</category><category>model-release</category><category>research-paper</category></item><item><title>BERT 公開 — 双方向 Transformer による NLU 革命</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2018/bert-transformer-nlu/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2018/bert-transformer-nlu/</guid><description>Devlin ら（Google AI Language）が BERT を発表。Masked Language Model + Next Sentence Prediction による双方向事前学習で GLUE / SQuAD などの NLU ベンチマークを軒並み更新。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>transformer-era</category><category>google-deepmind</category><category>model-release</category><category>research-paper</category></item><item><title>GPT-2 — 「公開しすぎて危険」として段階的リリース</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2019/gpt-2/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2019/gpt-2/</guid><description>OpenAI が 15 億パラメータの GPT-2 を発表。当初「悪用懸念のため full release は控える」とし、段階リリース方針を取った。後に同年 11 月に full モデルが公開され、生成テキストの「危険性」と「公開ポリシー」議論の出発点になった。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>transformer-era</category><category>openai</category><category>model-release</category><category>safety-alignment</category></item><item><title>Scaling Laws for Neural Language Models 公開（Kaplan ら）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2020/scaling-laws-for-neural-language-models-kaplan/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2020/scaling-laws-for-neural-language-models-kaplan/</guid><description>Kaplan ら（OpenAI / Johns Hopkins）による Neural Language Model のスケーリング則。性能がパラメータ数・データ量・計算量に対しべき乗則で改善することを実証し、その後の大規模化（GPT-3 以降）の理論的根拠になった。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>transformer-era</category><category>openai</category><category>academic</category><category>research-paper</category></item><item><title>Microsoft Bing Chat 発表（後の Copilot） — GPT-4 を組込</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/microsoft-bing-chat-copilot-gpt-4/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/microsoft-bing-chat-copilot-gpt-4/</guid><description>Microsoft が GPT-4 を統合した検索体験 Bing Chat（後の Microsoft Copilot）を発表。初期に表れた人格『Sydney』が物議を醸し、LLM アライメントの難しさを世間に強く印象づけた。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>microsoft</category><category>openai</category><category>model-release</category></item><item><title>Anthropic Claude 1 API 公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/anthropic-claude-1-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/anthropic-claude-1-api/</guid><description>Anthropic が Claude を API 公開。Constitutional AI による独自の安全性アプローチを掲げ、ChatGPT に対する最初の本格的競合として登場。GPT-4 と同日公開の偶然で AI 業界の競争激化が可視化された。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>anthropic</category><category>model-release</category></item><item><title>GPT-4 リリース — マルチモーダル + プロ用途で大幅性能向上</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/gpt-4/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/gpt-4/</guid><description>OpenAI が GPT-4 を公開。法曹試験で上位 10% に入る等、専門領域でのベンチマーク性能が大幅に伸びた。テキスト + 画像入力に対応した最初の主力モデル。同日に Anthropic も Claude 1 を API 公開している。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>openai</category><category>model-release</category><category>multimodal</category></item><item><title>Llama 2 公開 — Meta が大規模 LLM をオープンウェイトで提供</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/llama-2-meta-llm/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/llama-2-meta-llm/</guid><description>Meta が Microsoft と提携して Llama 2 (7B/13B/70B) をオープンウェイトで公開。Azure 経由でもデプロイ可能で、商用利用も条件付きで許可。クローズドモデルとオープンモデルの二極化の象徴的リリース。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>meta</category><category>microsoft</category><category>model-release</category><category>open-source-release</category></item><item><title>GPT-3 API ベータ公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2020/gpt-3-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2020/gpt-3-api/</guid><description>175B パラメータの GPT-3 が API ベータとして公開。few-shot in-context learning の能力が実証され、API ベースの商用 LLM 利用が幕を開けた。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>gpt3-era</category><category>openai</category><category>model-release</category><category>pricing-availability</category></item><item><title>OpenAI DevDay — GPT-4 Turbo / Custom GPTs / Assistants API 発表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/openai-devday-gpt-4-turbo-custom-gpts-assistants-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/openai-devday-gpt-4-turbo-custom-gpts-assistants-api/</guid><description>OpenAI 初の開発者カンファレンスで GPT-4 Turbo (128K context / 価格半減)、Custom GPTs (GPT Store)、Assistants API (Code Interpreter / Retrieval / Function calling 統合) を一挙発表。LLM プラットフォーム化が決定的に進んだ瞬間。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>openai</category><category>model-release</category><category>tooling-sdk</category><category>developer-experience</category></item><item><title>Sam Altman 解任騒動 — 5 日で復職</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/sam-altman-5/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/sam-altman-5/</guid><description>OpenAI 取締役会が CEO Sam Altman を突然解任。社員 700+ が辞職をちらつかせ Microsoft への移籍を表明する事態となり、5 日後に Altman は CEO に復帰。AI 業界のガバナンス・安全性 vs 商業化のテンションが世界に可視化された。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>openai</category><category>incident-postmortem</category></item><item><title>Google Gemini 1 発表 — マルチモーダルネイティブモデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2023/google-gemini-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2023/google-gemini-1/</guid><description>Google DeepMind が Gemini 1 (Ultra / Pro / Nano の 3 サイズ) を発表。テキスト・画像・音声・動画をネイティブに扱う初の主力マルチモーダルモデルと喧伝。MMLU で GPT-4 超えを主張したが、デモ動画の演出が物議も。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>google-deepmind</category><category>model-release</category><category>multimodal</category></item><item><title>OpenAI Sora 発表 — 高品質テキスト→動画生成</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/openai-sora/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/openai-sora/</guid><description>OpenAI が text-to-video モデル Sora を発表。最大 1 分の高解像度動画を一貫した物理表現で生成可能。映像系生成 AI の質的なジャンプを示し、Runway / Pika 等の競合と動画 AI 戦争が本格化。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>openai</category><category>model-release</category><category>multimodal</category></item><item><title>Anthropic Claude 3 ファミリー（Opus / Sonnet / Haiku）公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/anthropic-claude-3-opus-sonnet-haiku/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/anthropic-claude-3-opus-sonnet-haiku/</guid><description>Anthropic が Claude 3 ファミリー (Opus / Sonnet / Haiku の 3 サイズ) を公開。Opus が複数のベンチマークで GPT-4 を上回り、Anthropic が技術的な競合として頭角を現した転換点。視覚入力にも対応。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>anthropic</category><category>model-release</category><category>multimodal</category></item><item><title>Meta Llama 3 (8B/70B) オープンウェイト公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/meta-llama-3-8b70b/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/meta-llama-3-8b70b/</guid><description>Meta が Llama 3 (8B / 70B) をオープンウェイトで公開。トークナイザ・コンテキスト長・データ品質を刷新し、70B モデルが当時のクローズド主力モデルに匹敵する性能を示した。8B は単一 GPU でも動かせるサイズで普及。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>model-release</category><category>open-source-release</category></item><item><title>GPT-4o（omni）リリース</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/gpt-4oomni/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/gpt-4oomni/</guid><description>テキスト・画像・音声をネイティブに統合した GPT-4o が公開。音声応答が実時間に近づき、価格は GPT-4 Turbo の半額に。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>openai</category><category>model-release</category><category>multimodal</category><category>pricing-availability</category></item><item><title>OpenAI o1 (preview) リリース</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/openai-o1-preview/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/openai-o1-preview/</guid><description>推論時間を伸ばすことで難問の正答率を大幅に伸ばす o1-preview が公開。AIME で74%（GPT-4o は12%）。新ジャンルとしての推論モデルが定義された。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>reasoning-era</category><category>openai</category><category>reasoning-breakthrough</category><category>model-release</category></item><item><title>Claude Computer Use （ベータ）公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/claude-computer-use/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/claude-computer-use/</guid><description>Anthropic が Claude 3.5 Sonnet にデスクトップ操作能力を付加した Computer Use をベータ公開。エージェントが画面を見てクリック・入力する世界の幕開け。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>reasoning-era</category><category>anthropic</category><category>agentic-system</category><category>tooling-sdk</category></item><item><title>Anthropic Claude 3.5 Sonnet 公開 — Artifacts 機能を初導入</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2024/anthropic-claude-35-sonnet-artifacts/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2024/anthropic-claude-35-sonnet-artifacts/</guid><description>Anthropic が Claude 3.5 Sonnet を公開。複数ベンチマークで Opus を上回り、コーディング性能が大幅向上。同時に Artifacts (出力を別パネルで保存・編集可能) を導入し、対話 UI 進化の起点に。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>multimodal-era</category><category>anthropic</category><category>model-release</category><category>capability-update</category></item><item><title>DeepSeek-R1 公開（オープンウェイト推論モデル）</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2025/deepseek-r1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2025/deepseek-r1/</guid><description>DeepSeek が o1 級の推論能力を持つ R1 をオープンウェイトで公開。学習コストが既存 GPT-4 級の数十分の1という主張で世界に衝撃。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>reasoning-era</category><category>deepseek</category><category>reasoning-breakthrough</category><category>open-source-release</category></item><item><title>Stable Diffusion 1.x 一般公開 — オープン画像生成モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2022/stable-diffusion-1x/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2022/stable-diffusion-1x/</guid><description>Stability AI が CompVis / LMU München / Runway と共同開発した Stable Diffusion をオープンウェイト + コード公開。誰でもローカル GPU で動かせる強力な text-to-image 拡散モデルとして爆発的普及を引き起こした。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>stability</category><category>academic</category><category>model-release</category><category>open-source-release</category></item><item><title>ChatGPT 公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2022/chatgpt/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2022/chatgpt/</guid><description>InstructGPT の RLHF をベースにしたチャットインターフェース ChatGPT が公開。1週間で100万ユーザー、2ヶ月で1億ユーザーを獲得し、生成AIの一般普及の起点に。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>openai</category><category>model-release</category><category>developer-experience</category></item><item><title>DALL·E と CLIP を OpenAI が同日公開 — 画像とテキストの結合</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2021/dalle-clip-openai/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2021/dalle-clip-openai/</guid><description>OpenAI が同日に DALL·E（テキストから画像生成）と CLIP（テキスト・画像の埋め込み統一）を発表。マルチモーダル基盤の幕開けとして、その後の Stable Diffusion / Midjourney / Sora 等の前史となる。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>gpt3-era</category><category>openai</category><category>model-release</category><category>research-paper</category><category>multimodal</category></item><item><title>PaLM 540B 発表 — Pathways アーキテクチャでの超大規模学習</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2022/palm-540b-pathways/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2022/palm-540b-pathways/</guid><description>Google が Pathways システム上で学習した 540B パラメータの Pathways Language Model (PaLM) を発表。多くの NLP ベンチマークで人間並み、Chain-of-Thought プロンプティングでの推論能力が注目された。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>rlhf-alignment-era</category><category>google-deepmind</category><category>model-release</category><category>research-paper</category></item><item><title>GitHub Copilot テクニカルプレビュー公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2021/github-copilot/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2021/github-copilot/</guid><description>GitHub と OpenAI が共同で開発したコード補完アシスタント GitHub Copilot のテクニカルプレビューを公開。OpenAI Codex (GPT-3 派生) を基盤に、Visual Studio Code 等の IDE 内で人間のペアプログラマのように補完を提示。コーディング AI の社会実装の起点。</description><pubDate>Mon, 11 May 2026 17:03:01 GMT</pubDate><category>gpt3-era</category><category>microsoft</category><category>openai</category><category>model-release</category><category>developer-experience</category></item><item><title>OpenAI Campus Network: Student club interest form — OpenAI Campus Network — 世界の学生クラブを繋ぐイニシアチブ</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/openai-campus-network-student-clubs/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/openai-campus-network-student-clubs/</guid><description>OpenAI は世界中の大学・高校の学生 AI クラブを繋ぐ Campus Network イニシアチブを発表した。参加した学生クラブは OpenAI のツールへのアクセス、イベント開催支援、ネットワーキング機会を受けられ、AI に関心のあるキャンパスコミュニティを育成する。AI 教育エコシステムの裾野を広げる取り組み。</description><pubDate>Mon, 11 May 2026 10:00:00 GMT</pubDate><category>agent-era</category><category>openai</category><category>company-news</category><category>education</category></item><item><title>How enterprises are scaling AI — OpenAI、エンタープライズが AI をスケールする方法を解説</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/openai-enterprises-scaling-ai/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/openai-enterprises-scaling-ai/</guid><description>OpenAI が企業向けに AI 導入のスケーリング方法をまとめたガイドを公開した。初期実験段階から、信頼性・ガバナンス・ワークフロー設計・品質管理に基づいた複利的なインパクト創出までのステップを整理。エンタープライズ AI 採用の成熟度モデルを示す内容となっている。</description><pubDate>Mon, 11 May 2026 10:00:00 GMT</pubDate><category>agent-era</category><category>openai</category><category>enterprise-adoption</category></item><item><title>Learn More — Orakl Oncology、DINOv2 でがん治療研究を加速</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-dinov2-orakl-oncology/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-dinov2-orakl-oncology/</guid><description>フランスの Gustave Roussy Institute スピンオフ Orakl Oncology が、DINOv2 を活用してがん治療研究を加速。患者由来オルガノイド（実験用がん細胞塊）の顕微鏡画像解析に DINOv2 を組み込み、薬剤候補のスクリーニング効率を向上させる。臨床試験前段階の治療法発見プロセスを大幅に短縮する応用例。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category><category>scientific-discovery</category></item><item><title>Learn More — SAM Audio — 音声分離向け初の統合マルチモーダルモデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-sam-audio/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-sam-audio/</guid><description>Meta は SAM のオーディオ版「SAM Audio」を発表した。マルチモーダルなプロンプトを使って音声分離 (audio separation) を行う、初の統合モデル。Perception Encoder Audiovisual (PE-AV)を基盤とし、音声分離タスクで SOTA を達成。SAM Audio-Bench という初の in-the-wild 評価ベンチマークも同時公開。SAM Audio と PE-AV は本日から利用可能。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>model-release</category><category>capability-update</category></item><item><title>Learn More — Penn 大学、DINO + SAM で医療トリアージを近代化</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-dino-sam-medical-triage/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-dino-sam-medical-triage/</guid><description>ペンシルベニア大学の研究チームが Meta の DINO・SAM 系モデルを活用し、現代の医療トリアージプロトコルを改善する応用事例を発表した。災害医療や緊急対応の意思決定木を画像認識ベースで支援し、限られたリソース下で生死を分ける判断を補助する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category></item><item><title>Learn More — USRA、Segment Anything で洪水緊急対応を支援</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-sam-usra-flood-emergencies/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2025/meta-sam-usra-flood-emergencies/</guid><description>Universities Space Research Association (USRA) と Meta が連携し、Segment Anything Model (SAM) を活用して洪水緊急対応・水資源管理システムを支援。米地質調査所 (USGS) の水観測システムにおいて、衛星画像から水域を自動セグメント化し、洪水・干ばつ予測やダム・貯水池管理の意思決定を支援する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category><category>scientific-discovery</category></item><item><title>Announcements Feb 4, 2026 Claude is a space to think We’ve made a choice: Claude will remain ad-free. We explain why advertising incentives are incompatible with a genuinely helpful AI assistant, and — Claude は思考のための場所 — Anthropic が広告非依存方針を明言</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-ad-free/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-ad-free/</guid><description>Anthropic は「Claude を広告依存にしない」とブログで明言した。広告ベースのモデルが利用者の注意を引き付けることに最適化される一方、Claude は熟考・問題解決の場としてユーザー利益と一致させる設計を貫くと宣言。サブスクリプション + API 課金を主軸とするビジネスモデルを継続し、プロダクトとしての中立性・独立性を保つ意思表明として位置付けられる。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>company-news</category><category>business-model</category></item><item><title>Learn More — 英国、DINO 活用で都市緑地アクセス改善と政府コスト削減</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-dino-uk-greenspace-mapping/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-dino-uk-greenspace-mapping/</guid><description>英国の Forest Research が Meta の DINO 系基盤モデルを活用し、都市・町部の緑地（greenspace）マッピングを大規模化した事例。Environmental Improvement Plan の『15 分以内に緑地にアクセスできる』目標を支える基盤データを、衛星画像 + DINO の自動分析で生成。政府の評価コストを削減しつつ、緑地アクセスの均等化に寄与する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category><category>enterprise-adoption</category></item><item><title>Learn More — Meta と World Resources Institute、DINO ベースの森林樹冠高マップ v2 を公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-dino-canopy-height-maps-v2/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-dino-canopy-height-maps-v2/</guid><description>Meta は World Resources Institute と提携し、DINO 系基盤モデルを用いた森林樹冠高マップ v2 (CHMv2) を公開した。オープンソースのモデルとワールドスケールのマップを提供し、世界中の森林の高さ・密度・ギャップを詳細に可視化することで、生物多様性保全や土地利用判断を支援する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category><category>scientific-discovery</category></item><item><title>FEATURED — Meta、2 年で MTIA チップ 4 世代 — 数十億ユーザー向け AI を支えるハードウェア戦略</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-mtia-4-chips-2-years/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-mtia-4-chips-2-years/</guid><description>Meta は自社 AI 推論チップ Meta Training and Inference Accelerator (MTIA) をわずか 2 年で 4 世代展開してきた経緯と、その背景にある柔軟性戦略を公開した。数十億ユーザー向けに多様な AI モデルをサーブしながらコストを抑えるため、短いハードウェア更新サイクルでアーキテクチャを進化させ続けるアプローチを採用している。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>meta</category><category>infrastructure</category><category>hardware</category></item><item><title>How Alta Daily Uses Meta’s Segment Anything to Reimagine the Digital Closet — Alta Daily、Meta の Segment Anything を使ってデジタルクローゼットを再構築</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-sam-alta-daily-fashion/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-sam-alta-daily-fashion/</guid><description>Meta の Segment Anything Model (SAM) を活用した事例。ファッション系アプリ Alta Daily が、ユーザーが撮影した衣類画像から自動で被写体を切り出し、デジタルクローゼットを構築する用途でSAM を採用した。SAM 系モデルの実応用ケーススタディとして発表されている。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>application</category><category>enterprise-adoption</category></item><item><title>Grok Code Fast 1 — Grok Code Fast 1 — コーディング特化型高速モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-code-fast-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-code-fast-1/</guid><description>xAI はコーディング特化型の高速モデル Grok Code Fast 1 を公開した。コード補完・修正・PR レビュー等のタスクに最適化され、レイテンシとコストを汎用モデルより抑える。Anthropic Claude Code・OpenAI Codex・Mistral Codestral と正面から競合する位置付け。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>model-release</category></item><item><title>Grok 4 Fast — Grok 4 Fast — Grok 4 の低レイテンシ・低コスト版</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-fast/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-fast/</guid><description>xAI は Grok 4 系列の高速・低コスト版「Grok 4 Fast」を公開した。推論レイテンシとトークン単価を下げつつ、Grok 4 の主要能力を保持する設計。Anthropic Claude Haiku 系・OpenAI GPT-5 Mini 等との競合枠に位置付けられ、コスト感度の高い API 用途を想定。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>model-release</category></item><item><title>Learn More — TRIBE v2 — 人間脳の応答を予測する基盤モデル、解像度 70 倍向上</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-tribe-v2-brain-foundation-model/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-tribe-v2-brain-foundation-model/</guid><description>Meta は人間脳の神経活動を予測する基盤モデル「TRIBE v2」を発表した。視覚 / 聴覚刺激への脳応答を予測するデジタルツインとして機能し、同種モデルと比較して 70 倍の解像度向上を実現する。神経科学者・臨床研究者は被験者を必要とせずに仮説検証できるようになる。モデル・コード・論文・対話デモを公開。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>meta</category><category>model-release</category><category>scientific-discovery</category></item><item><title>FEATURED — SAM 3.1 公開 — マルチプレキシングとグローバル推論で高速・高精度なリアルタイム動画追跡</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-sam-3-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-sam-3-1/</guid><description>Meta は Segment Anything Model 3.1 (SAM 3.1) を公開した。SAM 3 の drop-in 置換として、動画処理効率を大幅に改善する。新たに導入された object multiplexing により1 forward pass で最大 16 オブジェクトを同時追跡できるようになり、リアルタイム動画における検出・追跡パイプラインの実用性が大きく向上する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>meta</category><category>model-release</category><category>capability-update</category></item><item><title>Expanding xAI for Government with GSA OneGov — xAI、GSA OneGov 経由で米連邦政府向けに販路拡大</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-gsa-onegov-federal/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-gsa-onegov-federal/</guid><description>xAI は米連邦政府向け調達プラットフォーム GSA OneGov 経由で、政府機関への xAI 提供を拡大すると発表。OneGov は政府機関向け SaaS の標準調達枠で、ここに掲載されることで連邦政府の各機関がxAI を購入しやすくなる。OpenAI・Anthropic・Microsoft Copilot に続く政府市場拡大の動き。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>enterprise-adoption</category><category>policy</category></item><item><title>Grok 4.1 — Grok 4.1 — 推論・コード・エージェント能力を底上げした主力モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-1/</guid><description>xAI は主力モデル Grok 4.1 を公開した。Grok 4 系列の機能改善版として、推論能力・コーディング・エージェント実行に渡って性能向上が見られる。Anthropic Claude Opus 4.7・OpenAI 系最新モデルと並ぶフロンティアモデルとして位置付けられ、Grok の主要 API・X 上のチャット体験で広く採用される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>model-release</category><category>capability-update</category></item><item><title>FEATURED — Meta、Advanced AI Scaling Framework と Muse Spark 安全性レポートを公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-advanced-ai-scaling-framework/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-advanced-ai-scaling-framework/</guid><description>Meta は AI モデル能力の向上に合わせて安全策をスケールさせる枠組み「Advanced AI Scaling Framework」を公開し、同時に Muse Spark の Safety &amp; Preparedness Report を提示した。従来の Frontier AI Framework を拡張する形で、能力評価・モニタリング・対策展開のサイクルを明文化し、より能力の高いモデルに対する追加要件を盛り込む。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>meta</category><category>safety-alignment</category><category>policy</category></item><item><title>FEATURED — Meta、Muse Spark を発表 — Meta Superintelligence Labs の初モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-muse-spark/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/meta-muse-spark/</guid><description>Meta は新設の Meta Superintelligence Labs (MSL) から初のモデル「Muse Spark」を発表した。ネイティブにマルチモーダルな推論モデルで、ツール利用・視覚的 chain-of-thought・マルチエージェントのオーケストレーションをサポートする。Muse シリーズはスケーリングラダーの第一段に位置付けられ、研究・モデル訓練・Hyperion データセンターを含むインフラまでスタック全体を再構築する文脈での投入。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>meta</category><category>model-release</category><category>capability-update</category><category>reasoning-breakthrough</category></item><item><title>Grok goes Global with KSA — Grok、サウジアラビアに展開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-saudi-arabia/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-saudi-arabia/</guid><description>xAI は Grok のサウジアラビア (KSA) でのサービス提供開始を発表。中東地域における Grok の本格展開の一環で、ローカライズ・データ residency・規制対応を整えた上での提供となる。中東各国の国家 AI 戦略との接続を狙う。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>regional-expansion</category><category>company-news</category></item><item><title>Grok 4.1 Fast and Agent Tools API — Grok 4.1 Fast と Agent Tools API — 推論速度と汎用エージェント能力を強化</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-1-fast-agent-tools/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-4-1-fast-agent-tools/</guid><description>xAI は Grok 4.1 ベースの高速版 Grok 4.1 Fast を公開し、同時に Agent Tools API を公開した。Fast は推論速度を優先しつつ Grok 4.1 の主要能力を維持。Agent Tools API はWeb 検索・コードインタープリタ・ファイル読み書き等の標準ツールを一体で提供し、汎用エージェントを組み立てる際の摩擦を減らす設計。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>model-release</category><category>capability-update</category><category>agentic-system</category></item><item><title>xAI and El Salvador Pioneer the World&apos;s First Nationwide AI Education Program — xAI とエルサルバドル、世界初の国家規模 AI 教育プログラムを開始</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-el-salvador-partnership/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-el-salvador-partnership/</guid><description>xAI はエルサルバドル政府と提携し、世界初の国家規模 AI 教育プログラムを開始すると発表した。エルサルバドルの全教育機関で Grok を学習ツールとして導入し、国民全体の AI リテラシー向上を目指す。新興国における国家 AI 戦略のケーススタディとして注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>enterprise-adoption</category><category>policy</category><category>partnership</category></item><item><title>Grok Voice Agent API — Grok Voice Agent API を公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-voice-agent-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-voice-agent-api/</guid><description>xAI は会話型音声エージェント構築のための Grok Voice Agent API を公開した。音声入力受信 → 処理 → 音声出力までを一体で扱う API で、電話応答 / カスタマーサポート / 音声アシスタント等の用途を想定。OpenAI Realtime API・Cartesia・Vapi 等と直接競合するレイヤー。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>product-launch</category><category>tooling-sdk</category><category>agentic-system</category></item><item><title>Introducing Claude Opus 4.7 Product Apr 16, 2026 Our latest Opus model brings stronger performance across coding, agents, vision, and multi-step tasks, with greater thoroughness and consistency on the — Claude Opus 4.7 登場 — コーディング・エージェント・長時間タスクで性能向上</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-opus-4-7/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-opus-4-7/</guid><description>Anthropic は最新世代の Opus モデル「Claude Opus 4.7」を公開した。コーディング、エージェント実行、長時間にわたる連続タスクで前世代を上回る性能を示し、Claude シリーズのフラッグシップとして位置付けられる。前バージョン Opus 4.6 と比較して、複雑な多段ツール呼び出しを伴うタスクの完遂率が向上したほか、コード生成の精度・保守性の評価指標で改善が報告されている。Claude API / Claude Code / Claude.ai 上で利用可能。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>model-release</category><category>capability-update</category></item><item><title>Supporting the DOW&apos;s mission with AI — xAI、米国政府『国防省』ミッションを AI で支援</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-us-department-of-war/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-us-department-of-war/</guid><description>xAI が米国政府 Department of War (DoW、旧国防総省) のミッション支援に AI を提供する契約を発表。OpenAI・Anthropic・Microsoft・Palantir 等と並ぶ国防 AI 調達枠への参入で、情報分析・運用支援・意思決定支援等が想定される。民間 AI 大手の国防領域への進出がさらに加速する局面。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>enterprise-adoption</category><category>policy</category></item><item><title>Product Apr 17, 2026 Introducing Claude Design by Anthropic Labs Today, we’re launching Claude Design, a new Anthropic Labs product that lets you collaborate with Claude to create polished visual work — Claude Design 公開 — Anthropic Labs によるデザイン向け新製品</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-design/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-design/</guid><description>Anthropic が新たな Anthropic Labs プロダクトとして「Claude Design」を発表した。デザインワークフローに特化した Claude ベースのツールであり、UI / ビジュアル生成やデザインシステムとの連携など、デザイナー向けの作業支援を提供する。Anthropic Labs はClaude を活用した実験的プロダクトの提供枠であり、新たなドメイン特化型ツールの一例となる。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>product-launch</category></item><item><title>Grok Collections API — Grok Collections API — ドキュメント集合体の管理</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-collections-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-collections-api/</guid><description>xAI は Grok Collections API を公開。複数ドキュメントを Collection としてグループ化し、メタデータ・タグ・参照スコープをまとめて管理できる。RAG / 知識ベース用途でドキュメントセットを Grok に与える際の API 表面を整理する。OpenAI Vector Stores・Claude Files API と類似の構造。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>tooling-sdk</category><category>capability-update</category></item><item><title>Apr 20, 2026 Announcements Anthropic and Amazon expand collaboration for up to 5 gigawatts of new compute — Anthropic と Amazon、最大 5 ギガワット規模の新コンピュート契約を拡大</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-amazon-5gw-compute/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-amazon-5gw-compute/</guid><description>Anthropic は Amazon (AWS) との提携を拡大し、最大 5 ギガワット規模の新たなコンピュート容量を確保すると発表した。AWS Trainium / Inferentia ベースの大規模クラスタを Claude のトレーニング・推論に活用する。OpenAI が Microsoft / Oracle / Nvidia と複数のメガ案件を結ぶ中、Anthropic 側も Amazon を主要パートナーとした調達体制を一段階強化する展開。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>amazon</category><category>infrastructure</category><category>partnership</category></item><item><title>Introducing Grok Business and Grok Enterprise — Grok Business と Grok Enterprise を発表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-business-enterprise/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-business-enterprise/</guid><description>xAI は法人向けプラン Grok Business・Grok Enterprise を発表した。セキュリティ・アクセス制御・データ residency 等の組織要件に対応し、Slack 等の業務アプリ連携、SSO、監査ログ、専用エンドポイントを提供する。ChatGPT Business / Enterprise・Claude for Enterprise の競合枠での参入。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>product-launch</category><category>enterprise-adoption</category></item><item><title>Apr 24, 2026 Announcements An update on our election safeguards — Anthropic、選挙関連セーフガードの更新を公表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-election-safeguards-update/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-election-safeguards-update/</guid><description>Anthropic は Claude の選挙関連セーフガードに関する最新状況を公表した。選挙関連の誤情報・偽動画・なりすまし生成への対策、公式情報源への誘導、政策中立性の保持などのガードレールを継続的に更新している。2026 年の各国選挙サイクルに合わせ、検出ルール・拒否ポリシー・外部ファクトチェック機関との連携を強化する内容。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>safety-alignment</category><category>policy</category></item><item><title>Apr 24, 2026 Announcements Anthropic and NEC collaborate to build Japan’s largest AI engineering workforce — Anthropic と NEC が提携 — 日本最大の AI エンジニア人材プールを構築</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-nec-japan-partnership/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-nec-japan-partnership/</guid><description>Anthropic と NEC が提携し、日本国内で最大規模の AI エンジニアリング人材プールを構築すると発表した。NEC は自社エンジニアを Claude / Claude Code で大規模にアップスキルし、日本企業向けの AI 導入・SI 案件の供給能力を拡大する。ITmedia の続報では『想像以上の反響』があったと NEC 社長対談で語られている。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>partnership</category><category>enterprise-adoption</category><category>regional-expansion</category></item><item><title>xAI Raises $20B Series E — xAI、$20B のシリーズ E ラウンドを完了</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-series-e-20b/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-series-e-20b/</guid><description>xAI は $20B（200億ドル規模）のシリーズ E 資金調達を完了したと発表。OpenAI / Anthropic に対抗する AI 大手として、コンピュート購入・データセンター投資・人材獲得に充てる。AI フロンティア競争の資金量が次の段階へ突入したことを示す象徴的な発表。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>company-news</category><category>funding</category></item><item><title>Apr 27, 2026 Announcements Anthropic names Theo Hourmouzis General Manager of Australia &amp; New Zealand and officially opens Sydney office — Anthropic、Theo Hourmouzis を豪州・NZ ゼネラルマネージャーに任命し公式開設</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-anz-gm-theo-hourmouzis/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-anz-gm-theo-hourmouzis/</guid><description>Anthropic は Theo Hourmouzis を Australia &amp; New Zealand 地域ゼネラルマネージャーに任命し、同地域での公式拠点開設を発表した。Anthropic のグローバル展開において、アジア太平洋圏の出先機関として豪州・NZ 市場を担当する。前職での企業向けクラウド販売経験を活かし、現地企業の Claude 採用を加速させる狙い。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>company-news</category><category>regional-expansion</category></item><item><title>Apr 28, 2026 Announcements Claude for Creative Work — Claude for Creative Work — クリエイティブ作業向けの新展開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-for-creative-work/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-claude-for-creative-work/</guid><description>Anthropic がクリエイティブワーク向けの Claude 活用展開「Claude for Creative Work」を発表。執筆・ブレインストーミング・脚本・コピーライティング等の創造業務を支援する機能群・ワークフローを整理した。汎用 Claude では網羅しきれなかった創造ドメインへのフォーカスを強化する位置付け。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>product-launch</category></item><item><title>Grok Imagine API — Grok Imagine API を一般公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-imagine-api/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-imagine-api/</guid><description>xAI は画像生成モデル Grok Imagine を API として一般公開した。テキストから画像を生成する基本機能に加え、編集・参照画像入力などをプログラマブルに扱える。DALL·E / Midjourney / Stable Diffusion 系と並ぶ画像生成 API 市場への本格参入。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>xai</category><category>product-launch</category><category>tooling-sdk</category></item><item><title>Grok Speech to Text and Text to Speech APIs — Grok の STT / TTS API を公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-stt-tts-apis/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-stt-tts-apis/</guid><description>xAI は Grok の音声認識 (Speech-to-Text) と音声合成 (Text-to-Speech) を独立した API として公開した。Grok 全体ではなく、音声系のコンポーネントだけを単独で組み込みたい開発者向けの構成。OpenAI Whisper / TTS、ElevenLabs と直接競合するポジションに踏み込む。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>product-launch</category><category>tooling-sdk</category></item><item><title>Grok Voice Think Fast 1.0 — Grok Voice Think Fast 1.0 — 低レイテンシ音声推論モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-voice-think-fast-1/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-voice-think-fast-1/</guid><description>xAI は低レイテンシで対話可能な音声推論モデル Grok Voice Think Fast 1.0 を公開した。従来の Grok Voice Agent より応答遅延を大幅短縮しつつ、ある程度の推論能力を維持。ライブ通話・カスタマーサポート IVR・リアルタイムガイドなど、即応性が要求される用途を狙う。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>model-release</category><category>capability-update</category></item><item><title>Responsible Scaling Policy — Anthropic、Responsible Scaling Policy を更新</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-rsp-update/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-rsp-update/</guid><description>Anthropic は AI 安全性の中核フレームワークである Responsible Scaling Policy (RSP) を更新した。AI Safety Level (ASL) の閾値・要件・モニタリング指標を見直し、より能力が高いモデルに対する追加コミットメントを明文化した。サイバーセキュリティ・生物兵器関連リスク等の category-specific evaluation を強化し、フロンティアモデル開発における自主規制の透明化を進める。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>safety-alignment</category><category>policy</category></item><item><title>Custom Voices and Voice Library — Grok Custom Voices と Voice Library を提供開始</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-custom-voices/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-custom-voices/</guid><description>xAI は Grok にカスタム音声機能 Custom Voices と、事前用意された音声を選べるVoice Library を公開した。ユーザーは自分の音声特性をベースにしたカスタムキャラクター音声を作成でき、Grok とのインタラクションをパーソナライズできる。エンタープライズ向け IVR / バーチャルアシスタント用途の拡張を示唆。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>xai</category><category>capability-update</category><category>product-launch</category></item><item><title>May 4, 2026 Announcements Building a new enterprise AI services company with Blackstone, Hellman &amp; Friedman, and Goldman Sachs — Anthropic、Blackstone / Hellman &amp; Friedman / Goldman Sachs と新企業向け AI サービス会社を設立</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-enterprise-jv-blackstone/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-enterprise-jv-blackstone/</guid><description>Anthropic は Blackstone、Hellman &amp; Friedman、Goldman Sachs と共同で新たなエンタープライズ AI サービス会社の設立を発表した。各社の業界知見とClaude を組み合わせ、大企業の AI 導入支援を専門に行う。投資銀行 / PE 大手との連携により、コンサルティング・実装・運用の一気通貫サービスを Claude 中心に展開する戦略。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>company-news</category><category>enterprise-adoption</category><category>partnership</category></item><item><title>May 5, 2026 Announcements Agents for financial services — Anthropic、金融サービス向けエージェントを発表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-finance-agents/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-finance-agents/</guid><description>Anthropic が金融サービス業界向けの専用エージェント群を発表。Claude を基盤に、リサーチ・コンプライアンス・ポートフォリオ分析・顧客対応など金融業務に特化したワークフローを提供する。規制要件・データセキュリティ・監査可能性を組み込んだエンタープライズ向け垂直統合の一例。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>product-launch</category><category>enterprise-adoption</category><category>agentic-system</category></item><item><title>May 6, 2026 Announcements Higher usage limits for Claude and a compute deal with SpaceX — Anthropic、Claude の利用上限引き上げと SpaceX とのコンピュート契約を発表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-higher-limits-spacex/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/anthropic-higher-limits-spacex/</guid><description>Anthropic は Claude の利用上限引き上げを発表すると同時に、SpaceX とのコンピュート供給契約を公表した。スケールしたインフラ確保により、Pro / Team / Enterprise ユーザーの 5 時間枠・週枠の制限を緩和する。xAI と並ぶ Musk 系企業との提携は、AI 業界のコンピュート争奪戦における Anthropic の動きとして注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>company-news</category><category>infrastructure</category></item><item><title>Grok Imagine Quality Mode API — Grok Imagine Quality Mode API — 高品質画像生成 API</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-imagine-quality-mode/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-imagine-quality-mode/</guid><description>xAI は Grok Imagine に高品質モード Quality Mode の API を公開した。従来の高速モードに対して、計算リソースを多めに使って細部の品質を向上させる上位ティアを提供。Grok Imagine API を活用する開発者は、用途に応じて速度・コスト・品質のトレードオフを選択できる。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>xai</category><category>capability-update</category></item><item><title>xAI joins SpaceX — xAI、SpaceX に参画</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-joins-spacex/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-joins-spacex/</guid><description>xAI は SpaceX に正式参画すると発表。Musk 系列内での法人統合に近い動きで、コンピュート・人材・データを束ねた一体運営に向かう。Anthropic も同時期に SpaceX とのコンピュート契約を発表しており、AI コンピュート競争の構図が大きく動く局面となる。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>company-news</category><category>infrastructure</category></item><item><title>Connectors in web, iOS, and Android — Grok Connectors — Web / iOS / Android で外部サービス連携</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-connectors/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-grok-connectors/</guid><description>xAI は Grok に Connectors 機能を追加し、Web・iOS・Android で外部サービスとネイティブに連携できるようにした。Google Drive・Gmail・GitHub などのサービスをGrok から直接参照・操作でき、エージェント的なワークフロー実行を強化する。ChatGPT Connectors・Claude の MCP / connectors に対抗する展開。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>capability-update</category><category>agentic-system</category></item><item><title>Remote agents in Vibe. Powered by Mistral Medium 3.5. Product Introducing Mistral Medium 3.5, remote coding agents in Vibe, plus new Work mode in Le Chat for complex tasks. Apr 29, 2026 Mistral AI — Mistral Medium 3.5 発表 — Vibe にリモートコーディングエージェントを統合</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/mistral-medium-3-5-vibe-remote-agents/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/mistral-medium-3-5-vibe-remote-agents/</guid><description>Mistral は新モデル「Mistral Medium 3.5」を発表し、同社のコーディング環境 Vibe でリモートコーディングエージェントを利用できるようにした。Medium 3.5 を駆動エンジンとし、Vibe からクラウド側でエージェントがリポジトリへの長時間タスク（マルチファイル変更・テスト・PR 作成）を実行する。Anthropic Claude Code・OpenAI Codex に対抗するエージェント型 IDE 戦略の一環。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>mistral</category><category>model-release</category><category>product-launch</category><category>agentic-system</category></item><item><title>国立国会図書館、「AI動向」に関する調査資料を無料公開中 — 国立国会図書館、「AI 動向」に関する調査資料を無料公開</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/ndl-japan-ai-trends-research-document/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/ndl-japan-ai-trends-research-document/</guid><description>国立国会図書館が AI 動向に関する調査資料を無料で一般公開した。AI 技術の研究動向、社会的影響、政策動向、各国の規制等を体系的にまとめた資料で、AI に関する公的なナレッジソースとして有用。日本国内における AI に関する公共資料整備の事例として注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>policy</category><category>education</category></item><item><title>Using Claude Code: The Unreasonable Effectiveness of HTML — Claude Code: HTML の不合理な有効性 — Markdown より HTML を出力させるべき理由</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/simonw-claude-code-unreasonable-html/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/simonw-claude-code-unreasonable-html/</guid><description>Anthropic Claude Code チームの Thariq Shihipar の記事を Simon Willison が紹介。Claude に出力させる形式として Markdown よりも HTML の方が有効な場面が多いと主張。PR レビューを HTML artifact として生成させる例、構造化された差分表示、ハイパーリンク・インラインスタイルを使った視覚的な情報設計など、実装と表現を一体化させる出力としての HTML の優位性を示すプロンプト例が満載。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>prompting</category><category>tooling-sdk</category></item><item><title>New Compute Partnership with Anthropic — xAI と Anthropic、新たなコンピュート提携を発表</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-anthropic-compute-partnership/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/xai-anthropic-compute-partnership/</guid><description>xAI は Anthropic との新たなコンピュート提携を発表した。両社間でコンピュートリソースの相互融通を行う具体的な枠組みで、競合関係にある AI 企業同士が GPU 容量を共有する珍しい構図。業界全体での GPU 不足の中、戦略的な相互依存関係の構築として注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>xai</category><category>anthropic</category><category>infrastructure</category><category>partnership</category></item><item><title>AI生成の「ゴミ報告」が殺到、対応追い付かず疲弊……脆弱性発見の懸賞金制度に異変 — AI 生成の『ゴミ報告』が殺到 — 脆弱性発見の懸賞金制度に異変</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/ai-generated-bug-bounty-noise/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/ai-generated-bug-bounty-noise/</guid><description>脆弱性発見 bug bounty 制度に AI 生成の低品質報告が殺到し、対応する側のセキュリティチームが疲弊している実態を伝える記事。LLM を使った自動報告生成が容易になった結果、実体のない『AI が作った』脆弱性レポートの数が爆発的に増え、運営側が真の脆弱性報告を選別するコストが急増。AI が引き起こしている人間労働への副作用の典型例。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>safety-alignment</category><category>trend-analysis</category></item><item><title>「え、就職の面接官がAIだって？」　普及する“AI面接官”への困惑と改善要望【調査】 — AI 面接官の普及と困惑 — 求職者への影響と改善要望</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/itmedia-ai-job-interviewer-survey/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/itmedia-ai-job-interviewer-survey/</guid><description>就職面接の場で AI 面接官（応募者の音声・動画・回答を AI が解析・評価する）が普及している実態と、求職者からの困惑・改善要望をまとめた調査記事。効率化のメリットはあるが、判定の透明性、感情の機微への対応、公平性への懸念が指摘されている。エンタープライズ AI の社会的影響を映す事例。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>application</category><category>trend-analysis</category><category>safety-alignment</category></item><item><title>NEC×Anthropic協業は「想像以上の反響」　社長対談で語られた“日の丸AI”の戦い方【一問一答】 — NEC × Anthropic 協業、社長対談で語る『日の丸 AI』戦略 — 想像以上の反響</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/itmedia-nec-anthropic-japan-ai-strategy/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/itmedia-nec-anthropic-japan-ai-strategy/</guid><description>NEC × Anthropic 協業についての社長対談記事。NEC が Claude / Claude Code を社内全エンジニアにアップスキルさせる方針、想像以上の取引先反響、日本企業の AI 内製化を支える『日の丸 AI』戦略の中での位置付け等を一問一答形式で公開。Anthropic 公式 announcement の続報。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>anthropic</category><category>partnership</category><category>enterprise-adoption</category></item><item><title>GPT Images 2.0 + Seecdance 2.0 でストーリーボードからのアニメ生成を試す — GPT Images 2.0 + Seedance 2.0 でストーリーボードからのアニメ生成</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/npaka-gpt-images-seedance-storyboard-anime/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/npaka-gpt-images-seedance-storyboard-anime/</guid><description>npaka 氏が GPT Images 2.0 でストーリーボード（4×4 グリッド・16:9 のアニメ風コマ割り）を生成し、Dreamina の Seedance 2.0 でストーリーボードを実際に動くアニメ映像に変換する実験。Nano Banana + Grok Imagine 版との比較も行い、それぞれの強みと弱みを1 発出し vs. 3 生成ベストピック方式で評価。マルチモーダル AI を組み合わせた制作パイプラインの実例として有用。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>multimodal-era</category><category>openai</category><category>application</category></item><item><title>Gemma 4 を Intel NPU (Lunar Lake) で動かす — OpenVINO 2026 + openvino-genai</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-gemma4-intel-npu-openvino/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-gemma4-intel-npu-openvino/</guid><description>Google の Gemma 4 を Intel Lunar Lake 内蔵 NPU で動作させる実践記事。OpenVINO 2026 と openvino-genai を組み合わせ、量子化・モデル変換・推論パイプラインを構築。クラウド API に頼らないローカル推論の選択肢として、エッジ AI / プライバシー重視ワークロードでIntel NPU + OpenVINO スタックの実用性が一段階上がっていることを示す事例。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>google-deepmind</category><category>application</category><category>inference-optimization</category></item><item><title>推論速度を最大 3 倍にした Gemma 4 の MTP drafter とは何か — Gemma 4 の MTP drafter — 推論速度を最大 3 倍にする技術</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-gemma4-mtp-drafter/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-gemma4-mtp-drafter/</guid><description>Google の Gemma 4 に搭載された MTP (Multi-Token Prediction) drafter の仕組みを解説。従来の speculative decoding に対する改良として、自己回帰モデル内で複数トークンを並列予測し、ドラフトモデルを別途用意する必要がない設計が特徴。報告では推論速度が最大 3 倍に向上。ローカル LLM 推論の高速化技術として注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>google-deepmind</category><category>capability-update</category><category>inference-optimization</category></item><item><title>LLM に日本の法令・法規を正しく引かせるために、日本の法規 MCP ファミリーを作った話 — 日本の法令・法規 MCP サーバーファミリーを作って LLM に正しく引用させる</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-japan-law-mcp-server/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-japan-law-mcp-server/</guid><description>日本の法令・法規を LLM に正しく引用させるための MCP サーバーファミリーを開発した報告。e-Gov 法令検索 API を MCP として包んで、Claude や ChatGPT 等が正確な条文と最新の改正状況を引いて回答できるようにする。LLM の hallucination 抑制 + 日本のリーガルテックでの実用化に向けた一歩。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>tooling-sdk</category><category>application</category></item><item><title>書籍のOCRにLLMを組み合わせることで精度を上げるだけでなく文書構造や図も表現した記録 — 書籍 OCR に LLM を組み合わせ、精度向上 + 文書構造・図表現も保持</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-ocr-llm-structured-extraction/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/zenn-ocr-llm-structured-extraction/</guid><description>書籍の OCR に LLM を組み合わせることで、単なる文字認識精度を上げるだけでなく、文書構造（章・節・段落）や図表の構造も保持する処理パイプラインを構築した記録。OCR 結果を LLM で後処理することで誤読を修正しつつ、見出し階層・図キャプション・表構造を Markdown / JSON で表現できる。古書のデジタル化や RAG 用ソース整備に有用。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>application</category><category>tooling-sdk</category></item><item><title>Domain-level metacognitive monitoring in frontier LLMs: A 33-model atlas — 33 モデル横断調査 — フロンティア LLM のドメイン別メタ認知能力アトラス</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-33-model-metacognitive-atlas/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-33-model-metacognitive-atlas/</guid><description>33 種類のフロンティア LLM を対象に、ドメイン別のメタ認知能力（自分の知識・無知の自覚）を包括的に評価した大規模スタディ。モデルが『自分が間違える可能性を正しく見積もれるか』を計測し、ドメイン・スケール・推論モード別の傾向を提示する。ハルシネーション抑制やエージェント実行時の自己検証戦略を設計する基礎データとして有用。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>evaluation</category><category>scientific-discovery</category></item><item><title>Behavior Cue Reasoning: Monitorable Reasoning Improves Efficiency and Safety through Oversight — Behavior Cue Reasoning — 監督可能な推論で安全性と効率を両立</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-behavior-cue-monitorable-reasoning/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-behavior-cue-monitorable-reasoning/</guid><description>推論を『観察可能 (monitorable)』にする手法 Behavior Cue Reasoning を提案。推論ステップに振る舞いの cue (兆候・動機) を添えることで、人間や検査システムが推論プロセスを監督しやすくなる。同時に、不要な冗長思考を抑えるため効率も向上。alignment / safety と推論効率を同時に改善する手法として実用性が高い findings。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>reasoning-era</category><category>other</category><category>safety-alignment</category><category>capability-update</category><category>reasoning-breakthrough</category></item><item><title>Towards Closing the Autoregressive Gap in Language Modeling via Entropy-Gated Continuous Bitstream Diffusion — Entropy-Gated Continuous Bitstream Diffusion — 自己回帰モデルとのギャップを縮める拡散モデル</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-entropy-gated-bitstream-diffusion/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-entropy-gated-bitstream-diffusion/</guid><description>言語モデリングにおける自己回帰モデルとのギャップを縮める Entropy-Gated Continuous Bitstream Diffusionという新アーキテクチャを提案。連続ビットストリーム空間で拡散プロセスを動かしつつ、エントロピーで生成タイミングをゲートする設計により、長らく自己回帰モデルが優勢だった言語生成領域で拡散モデルが競争力を取り戻す可能性を示す。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>scientific-discovery</category><category>capability-update</category></item><item><title>Extracting Search Trees from LLM Reasoning Traces Reveals Myopic Planning — LLM の推論トレースから探索木を抽出 — 計画が近視眼的であることを示す</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-extracting-search-trees-myopic/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-extracting-search-trees-myopic/</guid><description>LLM の chain-of-thought 推論トレースから内部の探索木 (search tree) を抽出する手法を提案し、それを用いて『LLM の計画は近視眼的 (myopic)』であることを実証した論文。短期報酬を最大化する手は得意でも、長期的に得な探索を選ぶことが少ない。reasoning モデル・agent の長期計画の限界を可視化する findings。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>reasoning-era</category><category>other</category><category>scientific-discovery</category><category>evaluation</category></item><item><title>From Storage to Experience: A Survey on the Evolution of LLM Agent Memory Mechanisms — LLM エージェントのメモリ機構サーベイ — ストレージから経験へ</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-llm-agent-memory-survey/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-llm-agent-memory-survey/</guid><description>LLM エージェントのメモリ機構の進化を体系的にサーベイした論文。単なる『ストレージ』としてのメモリから、行動履歴を抽象化して『経験 (experience)』として活用するメカニズムへの移行を整理。short-term / long-term / episodic / semantic 等の階層、retrieval 戦略、自己反省・要約による圧縮、外部 store との統合などを網羅。Anthropic / OpenAI / Google の各エージェント実装の理論的整理に有用。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>scientific-discovery</category><category>agentic-system</category></item><item><title>More Thinking, More Bias: Length-Driven Position Bias in Reasoning Models — 推論を増やすほどバイアスも増える — 推論モデルの長さ駆動型位置バイアス</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-more-thinking-more-bias-position/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-more-thinking-more-bias-position/</guid><description>推論モデル（reasoning models, e.g., o1 / Claude reasoning）における『長さ駆動型位置バイアス (length-driven position bias)』を発見した論文。推論ステップが長くなるほど、最初・最後の選択肢を選びやすくなる系統的バイアスが強まることを示す。『より考えさせれば良い答えが得られる』という素朴な期待への警鐘で、reasoning 系モデルの evaluation 設計に影響する重要な findings。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>reasoning-era</category><category>other</category><category>evaluation</category><category>scientific-discovery</category><category>safety-alignment</category></item><item><title>Securing Computer-Use Agents: A Unified Architecture-Lifecycle Framework for Deployment-Grounded Reliability — コンピュータ使用エージェントのセキュリティ — Architecture-Lifecycle 統合フレームワーク</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-securing-computer-use-agents/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/arxiv-securing-computer-use-agents/</guid><description>コンピュータを操作するエージェント（computer-use agent）の信頼性向上を狙ったArchitecture-Lifecycle 統合フレームワーク。設計・運用・廃止までのライフサイクルを通して、権限管理・実行隔離・ログ・人間監督の各レイヤを統合的に扱う。Claude Computer Use・Anthropic Operator・OpenAI Operator の本番展開で問題になるセキュリティ設計に対する学術的フレームワーク提案。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>safety-alignment</category><category>agentic-system</category></item><item><title>AIエージェントが「Figma」でデザインを作成・編集可能に　“意図しないUI生成”を防ぐ仕組みとは — Figma 上の AI エージェントがデザインを作成・編集可能に — 意図しない UI 生成を防ぐ仕組み</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/figma-ai-agent-design-constraints/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/figma-ai-agent-design-constraints/</guid><description>Figma が AI エージェント機能を導入し、デザインを作成・編集できるようにした。意図しない UI が生成されることを防ぐため、デザインシステム・コンポーネントライブラリの制約をエージェントに渡す仕組みを採用。デザインツールにエージェントを組み込む際の実装パターンとして参考になる。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>product-launch</category><category>agentic-system</category></item><item><title>「まるで一反もめん」と話題の“人型重機”　JRも活用する技術を市販ロボに　国産スタートアップ人機一体 — 国産スタートアップ『人機一体』、JR も使う人型重機を市販へ</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/jinki-ittai-humanoid-industrial-robot/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/jinki-ittai-humanoid-industrial-robot/</guid><description>日本のスタートアップ『人機一体』が、JR でも利用される産業用人型ロボット（人型重機）を市販化する。「一反もめんのようだ」と話題の独特な形状を持ち、人間の動きをトレースしてロボットを遠隔操作する半自律システム。AI 直結というよりはロボティクス + テレオペレーションだが、産業 AI 応用の周辺領域として注目される。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>application</category><category>product-launch</category></item><item><title>“ChatGPT以後”に公開のWebサイト、35％がAI生成に？　米スタンフォード大などが調査　広まる「不自然に明るい文章」 — ChatGPT 以後に公開された Web サイトの 35% が AI 生成 — 米スタンフォード大調査</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/stanford-35pct-websites-ai-generated/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/stanford-35pct-websites-ai-generated/</guid><description>米スタンフォード大学らの調査で、ChatGPT 公開後にローンチされた Web サイトの約 35% に AI 生成テキストが含まれていることが明らかになった。『不自然に明るい』文章スタイル等から AI 生成を検出。AI 生成コンテンツが Web を急速に侵食している実態を示すデータで、今後の検索・SEO・コンテンツ評価の在り方に影響する。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>scientific-discovery</category><category>trend-analysis</category></item><item><title>TGR-DがAI-CAE技術を導入　RICOSとレーシングカー空力解析を検証 — TGR-D、AI-CAE 技術を導入 — RICOS とレーシングカー空力解析を検証</title><link>https://ai-report.kazuna-kav.workers.dev/articles/2026/tgrd-ricos-ai-cae-aerodynamics/</link><guid isPermaLink="true">https://ai-report.kazuna-kav.workers.dev/articles/2026/tgrd-ricos-ai-cae-aerodynamics/</guid><description>Toyota GAZOO Racing-D (TGR-D) は AI ベースの CAE (Computer-Aided Engineering) 技術を導入し、RICOS との連携でレーシングカーの空力解析を高速化・高精度化する実証を進めている。従来の数値シミュレーションに ML を組み合わせることで反復計算サイクルを短縮し、車両セッティング決定の意思決定を加速する取り組み。</description><pubDate>Mon, 11 May 2026 08:56:13 GMT</pubDate><category>agent-era</category><category>other</category><category>application</category><category>enterprise-adoption</category></item></channel></rss>