株式会社ずんだもん技術室AI放送局 cover art

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局

Written by: 株式会社ずんだもん技術室AI放送局
Listen for free

About this listen

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
Episodes
  • 私立ずんだもん女学園放送部 podcast 20260109
    Jan 8 2026
    youtube版(スライド付き) 関連リンク Dynamic context discovery エンジニアの間で絶大な人気を誇るAIエディタ「Cursor」が、開発効率と精度を劇的に向上させる新技術「Dynamic Context Discovery(動的コンテキスト探索)」を発表しました。 これまでのAI(コーディングエージェント)は、関連しそうな情報をあらかじめプロンプトにすべて詰め込む「静的コンテキスト」に頼ってきました。しかし、情報が多すぎるとトークン(AIが消費する文字数のようなもの)を無駄に消費し、AIが重要な情報を見失って誤答する原因にもなります。そこでCursorは、AIが必要な時に、必要な情報だけを自ら「探しに行く」仕組みへとシフトしました。 このアプローチの核心は「あらゆる情報を『ファイル』として扱う」という非常にシンプルで強力な工夫にあります。具体的には、以下の5つの方法で実装されています。 長い実行結果のファイル化: ツールやコマンドの長い実行結果をプロンプトに直接貼るのではなく、一度ファイルに書き出します。AIは必要に応じてそのファイルを読みに行けるため、情報が途中で切り捨てられる(Truncation)のを防げます。会話履歴の再検索: 会話が長くなり、過去のやり取りを「要約」して圧縮した際、重要な細部が消えてしまうことがあります。履歴をファイルとして保持することで、AIは要約で分からなくなった情報を後から検索して復元できます。Agent Skills(スキルの動的読み込み): 特定のタスク(例:特定のライブラリ操作)の手順を記した「スキル」ファイルを、必要な時だけAIがセマンティック検索で見つけ出し、利用します。MCPツールの効率化: 外部連携ツール(Model Context Protocol)の膨大な定義情報を常に読み込むのではなく、必要なツールの説明だけを動的に読み込みます。これにより、トークン使用量を約47%も削減することに成功しました。ターミナル履歴の同期: 統合ターミナルの出力をファイルとして同期。AIは「grep」などのコマンドを使って、膨大なログの中からエラーの原因だけを特定できます。 新人エンジニアの方にとって、LLMの「コンテキスト制限(一度に覚えられる量の限界)」は大きな壁に感じられるかもしれません。Cursorのこの技術は、情報を闇雲に詰め込むのではなく、「賢く検索して必要な分だけ取り出す」という、ベテランエンジニアがドキュメントを読み解くような動きをAIにさせている点が非常に画期的です。このアップデートにより、大規模なコードベースでもAIがより正確に、そして高速にサポートしてくれるようになります。 引用元: https://cursor.com/blog/dynamic-context-discovery Accelerating LLM and VLM Inference for Automotive and Robotics with NVIDIA TensorRT Edge-LLM NVIDIAは、自動運転車やロボティクスなどのエッジデバイス上で、大規模言語モデル(LLM)や視覚言語モデル(VLM)を高速かつ効率的に動作させるための新しいオープンソースC++フレームワーク「NVIDIA TensorRT Edge-LLM」を発表しました。 背景と開発の目的 これまでLLMの推論フレームワーク(vLLMなど)の多くは、データセンターでの大量の同時リクエスト処理やスループットの最大化を重視して設計されてきました。しかし、自動車やロボットといったエッジ環境では、「単一ユーザーに対する極めて低いレイテンシ」「オフライン環境での動作」「限られたメモリや電力リソース」といった特有の課題があります。TensorRT Edge-LLMは、こうしたエッジ環境特有のニーズに応えるために、ゼロから設計された軽量かつ高性能なソリューションです。 本フレームワークの主な特徴 エッジ特化の軽量設計: C++ベースで依存関係を最小限に抑えており、リソースに制約のある組み込みシステムへの導入が容易です。最新の高速化技術: EAGLE-3 投機的デコーディング: 推論速度を劇的に向上させます。NVFP4 量子化: 高い精度を維持しつつ、メモリ消費と計算負荷を削減します。チャンク化プリフィル (Chunked Prefill): 効率的なトークン処理を可能にします。 高い信頼性: リアルタイム性が求められるミッションクリティカルな製品(自動運転や産業用ロボット)に耐えうる堅牢なパフォーマンスを提供します。 導入の...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20260108
    Jan 7 2026
    youtube版(スライド付き) 関連リンク Googleが開発した次世代AIエージェントIDE「Antigravity」がやばすぎる Google DeepMindが発表した「Antigravity」は、これまでの開発環境の常識を覆す、AIエージェントを中心(Agent-First)に据えた次世代の統合開発環境(IDE)です。従来のIDEが「人間が書き、AIが補完する」ものだったのに対し、Antigravityは「AIエージェントが自律的に動き、人間がそれを監督・共創する」という新しいパラダイムを提示しています。 新人エンジニアの方にとっても、これからの開発スタイルのスタンダードを知る上で非常に重要な技術です。主な要点は以下の通りです。 1. 「Gemini 3」を搭載したエージェント・ファーストな設計 Antigravityは、Googleの最新AIモデル「Gemini 3」シリーズをエンジンとして採用しています。最大の特徴は、AIが単なる「コード補完ツール」ではなく、意思を持ってタスクを完遂する「エージェント」として機能する点です。 エージェントは、必要なAPIのドキュメントを自ら読み込み、実装に向けた具体的な計画を立て、実際にコードを書き、エラーが出れば自律的にデバッグまで行います。これにより、開発者は細かい構文に悩む時間から解放され、システム全体の設計や「どんな価値を提供するか」という本質的な意思決定に集中できるようになります。 2. ブラウザを自ら操作し、動くところまで責任を持つ このIDEにはブラウザが統合されており、AIエージェントは人間と同じようにブラウザを操作できます。コードを書いて終わりではなく、実際にアプリを立ち上げ、クリックやスクロールをしてUIが正しく動作するかをテストします。エラー画面のスクリーンショットを撮って原因を分析する姿は、まさに「自律して動く同僚」そのものです。 3. 「Artifacts(アーティファクト)」による作業の可視化 AIに作業を任せきりにすると「中で何をやっているか分からない」という不安が生まれがちですが、Antigravityは「Artifacts」という仕組みでこれを解決しています。 AIは作業の過程で、TODOリストや実装計画書、作業ログなどを逐次作成し、ユーザーに提示します。開発者はこれらをチェックすることで、AIの思考プロセスを把握し、必要に応じて「そこはこう直して」と指示を出したり、承認したりすることができます。この透明性が、人間とAIの信頼関係を築く鍵となっています。 4. 開発者の脳を「マルチスレッド化」する DeepMindは、この環境を「開発者の脳をマルチスレッド化するもの」と表現しています。一人のエンジニアが複数の機能をAIエージェントに並行して任せ、自分はそれらの進捗を確認・統合していくような、高度なチーム開発に近い体験が可能になります。 まとめ Antigravityは、AIを「便利な道具」から「頼れるパートナー」へと昇華させる試みです。現在はWindows、macOS、Linux向けにパブリックプレビュー版が公開されており、誰でもこの未来の開発体験に触れることができます。これからエンジニアとしてのキャリアを歩む皆さんにとって、AIとどのように手を取り合って生産性を高めていくか、そのヒントが詰まったツールと言えるでしょう。 引用元: https://zenn.dev/mitsuo119/articles/5e6cbda8ada83d 育てるほど楽になる AI 開発体制を作っている話 BLOG - DeNA Engineering 本記事は、DeNAの新規サービス開発チームにおいて、生成AI(Claude CodeやCursor等)を単なる「個人の補助ツール」から「プロジェクトの文脈を理解したチームメンバー」へと引き上げ、開発生産性を劇的に向上させた事例を紹介しています。新人エンジニアの方にとっても、モダンなAI駆動開発の理想形を知る上で非常に参考になる内容です。 1. 背景と課題 複雑なドメインを持つ新規開発プロジェクトでは、「AIの出力がプロジェクト固有のルールに従わない」「レビューでAIが汎用的なことしか言わない」といった課題がありました。これを解決するため、AIに与える「コンテキスト(文脈)」をリポジトリ内で一元管理し、AIを「育てる」仕組みを構築しました。 2. ワークフロー設計の2つの指針 レビュー作業の「量」を減らす: 機械的なチェック(規約違反や単純なバグ)はAIによる一次...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20260107
    Jan 6 2026
    youtube版(スライド付き) 関連リンク Claude Code、Google開発チームの1年分を1時間で実現──AI支援コーディングの転換点 Googleのプリンシパルエンジニアであるヤナ・ドーガン氏が、Anthropic社のエージェント型コーディングツール「Claude Code」を用い、自身のチームが1年かけて開発してきたシステムに匹敵するプロトタイプをわずか1時間で構築したと報告し、大きな注目を集めています。 1. 衝撃の報告とその背景 ドーガン氏が作成したのは、複数のAIエージェントを効率的に管理・調整する「分散型エージェントオーケストレーション」という複雑なシステムの概念実証(PoC)です。Googleチームが1年間、様々なアプローチを試行錯誤し議論を重ねてきた内容を、Claude Codeは提示された問題定義からわずか1時間で形にしました。 ただし、これは「本番環境用(プロダクショングレード)」ではなく、あくまで「動作モデル(トイバージョン)」であると補足されています。しかし、専門知識を持つ人間がAIを活用することで、自身の知見をこれほどの短時間で再構築・具現化できるようになった事実は、開発プロセスの劇的な変化を象徴しています。 2. AIコーディングの急速な進化曲線 記事では、ここ数年のAI支援プログラミングの進化が以下の通りまとめられています。 2022年:コードの「行」単位の補完2023年:コードの「セクション(ブロック)」全体の処理2024年:複数ファイルにまたがる作業、小規模アプリの構築2025年:コードベース全体を理解した作成・再構築 かつては5年先と考えられていたレベルに既に到達しており、開発効率の向上は専門家の想像を遥かに超えるスピードで進んでいます。 3. エンジニアのための実践的な活用ヒント Claude Codeを最大限に活用するための重要な戦略も示されています。 フィードバックループの構築:AIに自身の作業を検証する方法(テストコードなど)を与えることで、出力の品質が2〜3倍向上します。「プランモード」の活用:いきなり実装させるのではなく、まず対話を通じて計画を十分に固めてから実行に移すことが成功の鍵です。並列実行と外部ツール連携:複数のタスクを並列してAIに実行させたり、エラーログ監視ツール等と連携させたりすることで、開発サイクルを加速させます。 4. これからのエンジニアの役割 現在、Anthropic社内ではコードの約90%がAIによって書かれているといいます。エンジニアの役割は「自らコードを書く人」から、戦略的思考や複雑な問題解決、そして「AIシステムを管理・監督する人」へとシフトしています。 新人エンジニアにとっても、AIを単なる補助ツールとしてではなく、自身の能力を拡張するパートナーとして使いこなし、高次の設計や検証に注力するスキルが今後ますます重要になるでしょう。 引用元: https://innovatopia.jp/ai/ai-news/76604/ Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer NVIDIAは、次世代AIプラットフォーム「Rubin(ルービン)」の詳細を発表しました。本プラットフォームは、AIが単なるモデルの推論を超え、常に動作し続け知能を生み出す「AIファクトリー(AI工場)」へと進化した現状に対応するために設計されました。 Rubinの最大の特徴は「エクストリーム・コーデザイン(究極の共同設計)」という思想です。これは、GPU単体の性能向上に留まらず、CPU、ネットワーク、ソフトウェア、冷却システムまでを一つの計算システムとして統合的に設計する手法です。これにより、データセンターそのものを一つの計算ユニットとして扱います。 中心となるのは、以下の6つの新型チップです。 Vera CPU: カスタム設計の「Olympusコア」を搭載。データ転送のボトルネックを解消し、GPUの稼働率を最大化する「データエンジン」として機能します。Rubin GPU: HBM4メモリを搭載し、最新のTransformer Engineにより推論性能を飛躍させた「実行エンジン」です。NVLink 6 スイッチ: GPU間通信を3.6TB/sに倍増させ、ラック内のGPUを一つの巨大な計算機として繋ぎます。ConnectX-9 SuperNIC: ラック外との超高速通信を実現します。BlueField-4 DPU: ネットワークやセキュリティなどのインフラ処理を専門に引き受け、計算...
    Show More Show Less
    Less than 1 minute
No reviews yet