Afleveringen
-
関連リンク うさぎでもわかるGPT-4.1 - 他のGPTモデルとの違いを徹底解説
GPT-4.1はOpenAIの最新言語モデル。API経由で提供され、コーディング、指示理解、長文処理能力が向上。GPT-4oと比較し、性能向上しつつコストも削減。3つのモデル(GPT-4.1、mini、nano)があり、用途で選択可能。特にコーディング能力が向上し、指示理解もより正確。100万トークンまでの長文コンテキスト処理が可能。画像理解能力も向上。GPT-4oより高性能で低コストなminiモデルが魅力。APIでのみ利用可能。プロンプトを具体的に記述し、diff形式を活用、プロンプトキャッシングでコスト削減が有効。
引用元: https://zenn.dev/taku_sid/articles/20250415_gpt41_features
ニューラルかな漢字変換システム「Zenzai」の開発東大の三輪氏らが未踏事業で開発したニューラルかな漢字変換システム「Zenzai」を紹介。従来の統計的かな漢字変換の限界を、ニューラルネットワークで克服する試みです。GPT-2をベースに1.9億文規模のデータセットで学習。GPU環境(高火力DOK)を活用し高速に実験を繰り返しました。評価では既存手法やGPT-4.5に匹敵する精度を達成。macOSアプリ「azooKey on macOS」に実装され、誰でも試せます。言語処理学会で発表、若手奨励賞も受賞。今後はMLOpsの改善や既存機能との統合を目指すとのことです。
引用元: https://knowledge.sakura.ad.jp/42901/
JetBrains IDEs Go AI: Coding Agent, Smarter Assistance, Free Tier The JetBrains BlogJetBrainsがAIツールをIDEに統合。AIアシスタントに加え、コーディングエージェントJunieが利用可能に。これらは単一サブスクリプションで提供され、無料枠も用意。Junieは、AnthropicのClaudeやOpenAIのLLMを活用し、複雑なタスクを支援しコード品質も向上。AIアシスタントも強化され、Claude 3.7 SonnetやGoogle Gemini 2.5 Proなど最新モデルに対応。コード補完やコンテキスト認識が向上し、開発効率アップに貢献。
引用元: https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Google PixelのAI電話対応、迷惑電話だと即お断りしててウケる→「この機能便利」「返答が参考になる」Google PixelのAIが、迷惑電話を自動で判断し、対応してくれる機能が話題です。ユーザーからは「便利」「参考にしたい」という声が上がっています。AIがセールス電話を識別し、AI同士の対話に期待する声や、もっと通話を長引かせて相手のコストを増やして欲しいという意見も出ています。
引用元: https://togetter.com/li/2538490
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク 3 new ways AI agents can help you do even more
MicrosoftがAIエージェントに関する最新情報を公開しました。AIエージェントは、ユーザーのニーズを予測し、複雑なタスクを実行し、経験から学習する、まるで優秀なアシスタントのような存在です。Microsoft 365 Copilot向けのResearcherとAnalystは、メール、会議、ファイルなどのデータやWeb上の情報を分析し、高度な専門知識を提供します。また、サイバーセキュリティ分野では、フィッシング詐欺への対応やデータ保護を自動化するエージェントが登場し、セキュリティ担当者の負担を軽減します。開発者向けには、Azure AI FoundryでAIアプリの開発、展開、管理を支援するエージェントが提供され、データに基づいた意思決定やAIモデルの安全性テストを支援します。
引用元: https://news.microsoft.com/source/features/ai/3-new-ways-ai-agents-can-help-you-do-even-more/
Generate videos in Gemini and Whisk with Veo 2Gemini Advancedのユーザーは、Googleの最新動画モデルVeo 2を使って動画生成・共有が可能になった。Geminiではテキストから8秒の動画を作成できる。Google One AI Premiumの契約者は、Whisk Animateで画像から動画を作成できる。Veo 2は高解像度でリアルな動画生成を目指し、物理法則や人の動きを理解し、滑らかな動きや細部まで表現する。Geminiで動画を作成するには、モデル選択でVeo 2を選択。作成した動画は簡単に共有可能。安全対策として、生成された動画にはSynthIDによるデジタル透かしが入る。
引用元: https://blog.google/products/gemini/video-generation/
OpenAI GPT-4.1 now available in public preview for GitHub Copilot and GitHub Models · GitHub ChangelogGitHub CopilotとGitHub ModelsでOpenAIの最新モデルGPT-4.1が利用可能になりました。GPT-4.1は、GPT-4oを上回る性能を持ち、特にコーディング、指示の理解、長文コンテキストの理解が向上しています。Copilot Enterpriseの管理者は、GPT-4.1へのアクセスをCopilot設定で有効にする必要があります。GitHub Modelsでは、GPT-4.1をAIアプリケーションで利用できます。
引用元: https://github.blog/changelog/2025-04-14-openai-gpt-4-1-now-available-in-public-preview-for-github-copilot-and-github-models/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク LLMの使い分けは大体Geminiでいい(2025年4月時点)
LLMの使い分けについて、Gemini 2.5 Proが基本となり、調べ物はDeepResearch、図や画面作成はClaude 3.7 Sonnetが良い。Perplexity Proは検索に引き続き有用。コーディングはGemini 2.5 Proが優れているが、画面作成と不要コメント削除はClaude 3.7 Sonnetが適している。API経由では、性能重視ならGemini 2.5 Pro、コスパ重視ならGemini 2.5 Flashが期待される。Claude 3.7 Sonnetには不満があり、今後の改善に期待。Gemini 2.5 Proは無料でも試せるため推奨。
引用元: https://note.com/erukiti/n/n2318dd359061
Claude Desktopで爆速開発するこの記事は、Claude DesktopとMCP(Multi-Context Protocol)を組み合わせた開発環境の構築について解説しています。IntelliJのClineがまだ対応していない状況で、Claude DesktopアプリでMCPを活用したClaude Codeを利用することで、追加コストなしに高度なAIコーディング支援を受けられます。これにより、IDEで作業しながら、Claudeに別のタスクを並行して実行させることが可能になります。また、Claude.mdファイルを使うことで、開発に必要なコンテキストをClaudeに事前に伝えることができます。
引用元: https://zenn.dev/to43ki/articles/296db40fed7b23
Hugging Face to sell open-source robots thanks to Pollen Robotics acquisition 🤖Hugging Faceがオープンソースロボット開発のPollen Roboticsを買収し、ロボット販売に参入。2024年からロボティクス分野に進出し、LeRobotライブラリを開発。今回、Pollen Roboticsの買収により、オープンソースロボットReachy 2を70,000ドルで販売開始。Reachy 2は研究、教育、AI実験用に設計されたVR対応のヒューマノイドロボット。Hugging Faceは、AIとロボティクスの融合を推進し、オープンで手頃な価格のロボットをコミュニティに提供することを目指している。
引用元: https://huggingface.co/blog/hugging-face-pollen-robotics-acquisition
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Agent2Agent プロトコル(A2A)を発表:エージェントの相互運用性の新時代
GoogleがAIエージェント連携のためのオープンプロトコル「A2A」を発表。Atlassian、Box、Salesforceなど50社以上が参加。A2Aは、異なるベンダーや環境で構築されたAIエージェントが、安全に情報交換しタスクを連携実行するための共通基盤。HTTP、JSON等の既存技術を基盤とし、セキュリティ機能も提供。人材採用を例に、複数のエージェントが連携して業務を効率化する活用事例を紹介。詳細はGithubで公開されており、貢献も可能。
引用元: https://cloud.google.com/blog/ja/products/ai-machine-learning/a2a-a-new-era-of-agent-interoperability/
ChatGPTより格段にすごい……Googleの最新AI「Gemini 2.5 Pro」を使ってないのは時代遅れ。Googleの最新AI「Gemini 2.5 Pro」は、100万トークンという桁違いの文脈理解能力を持ち、大量の情報を効率的に処理できる。高度な推論能力で複雑な問題を解決し、テキスト、画像、音声など多様な情報を統合的に理解するマルチモーダル性能も進化。特に「Deep Research機能」は、Web上の情報を深く分析し、専門家のようなレポートを生成する。無料版も提供されており、ビジネスパーソンにとって大きな差別化要因となり得る。AIを使いこなし、スキルをアップデートすることが重要。
引用元: https://note.com/ihayato/n/nbd8046c4963b
Playwright MCP を使ってAIにUXを評価してもらうこの記事では、Playwright MCPを使ってAIにWebサイトのUXを評価させる試みを紹介。MCPはAIとサービスを繋ぐ共通規格で、Playwright MCPはPlaywrightのMCPサーバーとして、AIによる画面操作を可能にします。VSCodeとGitHub Copilotを連携させ、ペルソナと評価基準を設定。気象庁HPを例にAIがUXを評価しました。結果、AIはユーザビリティ、デザイン、パフォーマンスを評価し、改善点を提案。開発初期段階でのUX評価に有用で、人手による評価を補完し、より多くの評価回数でUXを向上させる可能性を示唆。スナップショットモードとビジョンモードの違いも検証し、ビジョンモードの方がより詳細な評価が可能であることを確認しました。
引用元: https://qiita.com/Takenoko4594/items/cc36ca3043f11ca175c1
くまモンって熊本のキャラだと今初めて知った筆者はくまモンを単なるクマのゆるキャラだと思っていたが、熊本のキャラクターだと初めて知り驚いている。見た目に熊本要素がないと感じているようだ。コメント欄では、熊本関連のイベントや商品で見かけることが多いという意見や、熊本の商品についていることが多いという意見が出ている。
引用元: https://anond.hatelabo.jp/20250413180942
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク Build Enterprise AI Agents with Advanced Open NVIDIA Llama Nemotron Reasoning Models NVIDIA Technical Blog
NVIDIAが、AIエージェント構築向けの「Llama Nemotron」推論モデルを発表しました(2025年3月)。このモデルは、複雑な問題解決や推論に特化しており、顧客サポートやサプライチェーン最適化など、様々な分野での応用が期待されています。
Llama Nemotronは、Nano(8B)、Super(49B)、Ultra(253B)の3つのサイズで提供され、用途や計算リソースに合わせて選択可能です。特にSuperモデルは、データセンターGPUでの高いスループットと精度を両立しています。
これらのモデルは、推論能力のON/OFFをシステムプロンプトで切り替えられる点が特徴で、推論が必要なタスクとそうでないタスクの両方に対応できます。NVIDIA NeMoフレームワークを活用した学習プロセスを経ており、高品質な推論能力を実現しています。
引用元: https://developer.nvidia.com/blog/build-enterprise-ai-agents-with-advanced-open-nvidia-llama-nemotron-reasoning-models/
Prevent LLM Hallucinations with the Cleanlab Trustworthy Language Model in NVIDIA NeMo Guardrails NVIDIA Technical BlogLLMの誤った応答(ハルシネーション)を防ぐため、NVIDIA NeMo GuardrailsとCleanlab Trustworthy Language Model (TLM)の連携を紹介。NeMo Guardrailsは、AIエージェントの安全性を確保するフレームワークで、TLMはLLMの応答の信頼性を評価する。具体的には、顧客サポートAIアシスタントを例に、TLMが不正確な情報を検出し、適切な応答を促す仕組みを解説。TLMは、応答内容が企業のポリシーと整合しているかをチェックし、不確実な情報や誤解を招く可能性のある情報を排除。これにより、LLMの信頼性を高め、顧客満足度向上に貢献する。リポジトリでは、顧客サポートAIアシスタントのサンプルコードが提供されている。
引用元: https://developer.nvidia.com/blog/prevent-llm-hallucinations-with-the-cleanlab-trustworthy-language-model-in-nvidia-nemo-guardrails/
KuruKuruDreams、「ペンギン冒険 (feat. ずんだもん)」を配信開始|THE MAGAZINEKuruKuruDreamsが「ペンギン冒険 (feat. ずんだもん)」をリリースしました。2025年4月11日に各種音楽配信サービスで配信開始。ずんだもんがフィーチャリングされた、エレクトロ、ボーカロイド、ポップの要素を含む楽曲です。
引用元: https://magazine.tunecore.co.jp/newrelease/492853/
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク MCP入門
MCP(Model Context Protocol)は、AIが外部データやツールにアクセスする際の共通ルールです。従来、AIと外部システムを連携させるには個別実装が必要でしたが、MCPは接続方法を標準化し、開発の手間を減らします。
MCPは、JSON-RPCを共通言語とし、初期化時に互いの機能を確認し合う仕組みです。ホスト(AI)、クライアント(セッション)、サーバ(データ/ツール)の3つの役割があり、LINEアプリに例えると理解しやすいでしょう。
開発者は、ツールやリソースの登録、トランスポート層の選択などを行います。MCPは進化が早く、Streamable HTTPが推奨されるようになりました。公式サンプルコードを参考に、MCPサーバを構築してみましょう。
引用元: https://zenn.dev/mkj/articles/0ed4d02ef3439c
Cursor,Windsurf,Github Copilotを課金して使い比べしてみた感想AIコーディングアシスタント「Windsurf」「Cursor」「GitHub Copilot」の比較記事です。著者は実際に課金して使用感を検証。CursorはGIFアップロード機能や柔軟なルール設定が魅力だが、従量課金のみ。WindsurfはCursorより安価だが、AIモデルとFlow Actionの制限あり。GitHub Copilotはコード品質が高く、VSCodeとの連携がスムーズ。月額料金も手頃。結論として、ルールを重視するならCursor、少しでも安く済ませたいならWindsurf、安定性を求めるならGitHub Copilotがおすすめとのことです。
引用元: https://zenn.dev/service/articles/11c04773e90232
Ironwood: The first Google TPU for the age of inferenceGoogleが第7世代TPU「Ironwood」を発表。推論処理に特化し、大規模言語モデル等に対応。最大9216チップで構成され、世界最大スパコンの24倍以上の計算能力(42.5Exaflops)を実現。前世代Trilliumと比較して、電力効率が2倍、メモリ容量が6倍、メモリバンド幅が4.5倍に向上。チップ間接続も強化。AI Hypercomputerの構成要素として、Google Cloudで利用可能になる予定。
引用元: https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
北海道の珍味「タコの精巣」を料理して食レポ! 加熱すると中身がニュルッと飛び出すレア食材は“インパクト抜群の美味”だった:マピオンニュースの注目トピックニコニコ動画に投稿された、北海道の珍味「タコの精巣」を料理して食レポする動画の記事です。
引用元: https://www.mapion.co.jp/news/column/nico17489953/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク TechFeed - エンジニアのための技術情報収集&共有プラットフォーム
TechFeedは、エンジニア向けに設計された情報収集・共有プラットフォームです。180以上の専門チャンネルで技術トレンドからニッチな情報まで網羅し、自動翻訳による海外情報へのアクセスも容易です。注目記事の自動厳選、記事の面白さを数値化するTechFeedスコア、パーソナライズ機能により、効率的な情報収集を支援します。ブックマーク、高度なシェア機能、コメント機能なども搭載。お仕事情報の提供や、技術情報収集の習慣化を促す機能も備えています。
引用元: https://techfeed.io/entries/67f2f13efe15614dc4ce2659
Introducing AutoRAG: fully managed Retrieval-Augmented Generation on CloudflareCloudflareが提供するAutoRAGは、RAG(Retrieval-Augmented Generation)をフルマネージドで実現するサービスです。RAGは、LLM(大規模言語モデル)の精度を向上させる技術で、AutoRAGはデータ取り込みからベクトルデータベースへの格納、検索、応答生成までを自動化します。これにより、開発者は複雑な設定やメンテナンスから解放され、AIを活用したアプリケーション開発に集中できます。CloudflareのR2、Vectorize、Workers AIなどのサービスを組み合わせて構築されており、データソースとの連携、データ変換、チャンク化、埋め込み、ベクトル保存、クエリ処理などを自動で行います。
引用元: https://blog.cloudflare.com/introducing-autorag-on-cloudflare/
Meta got caught gaming AI benchmarksMetaが開発したLlama 4の新型AIモデル「Maverick」について、ベンチマークテストで不正を行った疑いが浮上。MetaはLMArenaというAIベンチマークサイトで、公開版とは異なる「会話に最適化された実験版」のMaverickを使用し、競合のGPT-4oやGemini 2.0 Flashより高いスコアを獲得したと主張。しかし、この点が指摘され、LMArenaはポリシーを更新し、公平な評価を求める声明を発表。Metaは実験的なカスタム版を使用していたことを認めた。
引用元: https://www.theverge.com/meta/645012/meta-llama-4-maverick-benchmarks-gaming
No elephants: Breakthroughs in image generation画像生成AIが進化し、LLMが直接画像を制御する「マルチモーダル画像生成」が登場しました。以前は別のツールにテキストを送り画像生成していましたが、新しい方式ではAIが文章を作るように画像をパーツごとに生成します。これにより、より正確で高品質な画像が作成可能に。「象のいない部屋」のような複雑な指示も、以前のシステムより遥かに正確に反映できます。インフォグラフィック作成や画像編集も可能で、手書きのラフを広告にしたり、写真の家具を別の写真のものと入れ替えたりできます。まだ完璧ではありませんが、画像生成AIの進化は目覚ましく、様々な分野への応用が期待されます。ただし、著作権や倫理的な問題も考慮する必要があります。
引用元: https://www.oneusefulthing.org/p/no-elephants-breakthroughs-in-image
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク GitHub Copilotでバイブコーディング:エージェントモードとMCPサポートがVS Codeユーザーに提供開始
GitHub Copilotが進化し、VS Codeでエージェントモードが利用可能になりました。これは、ユーザーの指示に基づき、コードの自動生成や修正をより広範囲に行える機能です。また、MCP(Model Context Protocol)をサポートし、様々なツールとの連携も強化されました。有料プランでは、高性能なモデルを利用できるプレミアムリクエストが導入され、より高度なコーディング支援が可能です。
引用元: https://github.blog/jp/2025-04-07-github-copilot-agent-mode-activated/
AI時代はプログラミングスキルがさらに重要になるAI時代にプログラミングスキルは不要になるか? 著者は、AIが得意なのはネット上に情報が多い典型的なコードで、サンプルが少ないエッジケースは苦手だと指摘。AIが8割のコードを書いても、残りの2割、つまりエラーや特殊な挙動への対応に労力がかかる。AIは要件定義や設計も得意だが、評価が難しいため、人間の修正が必要になる。プログラマーはAIとの協働で、AIの弱点を補完し、成果物を調整する役割を担う。AIに仕事を奪われるのではなく、AIと協力して仕事をする関係になると予想。技術の進化は指数関数的とは限らず、専門知識を学び続けることが重要。
引用元: https://zenn.dev/dyoshikawa/articles/programming-skills-will-be-more-valueable
Devinが作るPull Requestのセルフマージを禁止するAI開発ツールDevin導入時、Devinが作成したPRをエンジニア自身が承認・マージできてしまう課題があります。そこで、GitHub Actionsを使用し、Devinが作成したPRには自動で「ai-generated」ラベルを付与。2人以上の承認がないとマージできないように設定します。レビュー承認数に応じてステータスを更新し、Branch Protectionと連携してマージを制御。これにより、AIが生成したコードの品質とセキュリティを向上させます。
引用元: https://tech.newmo.me/entry/ai-pull-request-protection
大規模な情報処理を行う「データセンター」の建設に住民が反対しているという記事→建てた方が良い理由や反対する理由など様々な声データセンター建設に対する住民の反対意見と、それに対する様々な意見をまとめた記事です。反対理由としては、見た目が刑務所のようである、騒音や環境への影響の懸念などが挙げられています。一方で、データセンターは固定資産税による自治体の収入増、企業の地方進出、雇用創出の可能性といったメリットもあります。「あった方が良い」という意見も多く、地域との共生や情報公開の必要性が指摘されています。
引用元: https://togetter.com/li/2535609
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Llama 4: Metaがもたらす新時代のマルチモーダルAI革命
MetaがLlama 4を発表。初のマルチモーダルモデルであり、MoEアーキテクチャ採用。Scout, Maverick, Behemothの3モデル構成。Scoutは10Mトークンのコンテキストウィンドウが特徴。MaverickはGPT-4o等を凌駕。Behemothは開発中で教師モデルとして活用。MoE、アーリーフュージョン、iRoPE等の技術が革新的。最大8枚の画像を同時処理可能。MetaPによる学習効率化、FP8精度でのトレーニングも特徴。安全性確保のため、Llama Guard等のツールも提供。オープンソースで利用可能。
引用元: https://zenn.dev/acntechjp/articles/20250406_llama4_analysis
neovim 0.11からはLSPをほぼネイティブAPIだけで扱えるNeovim 0.11でLSP(Language Server Protocol)関連機能が大幅に強化され、プラグインなしでも本格的に使えるようになりました。主な変更点は、LSPの設定、自動起動、補完がネイティブAPIで可能になったことです。設定例として、設定ファイルからnvim-lspconfigの設定を削除し、NeovimのAPIで直接設定する方法が紹介されています。ただし、Language Server自体のインストールは引き続きmasonなどのツールが必要です。これにより、dotfilesの見直しも推奨されています。
引用元: https://zenn.dev/pandanoir/articles/4736924f5ecc72
【東大理3合格】ChatGPT o1とDeepSeek R1に2025年度東大受験を解かせた結果と答案分析【採点協力:河合塾】AI(ChatGPT o1とDeepSeek R1)に2025年の東大入試を解かせた結果、理科三類に合格相当の成績を収めました。特別な指示なしに、最新AIが東大生レベルの思考力を持つことを示唆しています。ただし、受験特有の知識や回答形式、図表の読み取り、問題文の意図理解には課題も残りました。ChatGPTは流暢な文章生成能力がある一方、DeepSeekは難問へのひらめきが見られました。AIの活用には、タスクに応じた適切な指示とチューニングが重要です。
引用元: https://note.com/lifeprompt/n/n0078de2ef36b
ハイチの首都がギャングにより90%支配されてる件について記事の内容がハイチの首都の治安に関するものであり、新人エンジニアの業務と関連性が低いため、要約を見送ります。
引用元: https://www.nicovideo.jp/watch/sm44849022
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク Dify MCP Plugin Hands-On Guide: Integrating Zapier for Effortless Agent Tool Calls - Dify Blog
AIエージェントが外部ツールと連携するための標準規格MCPのDifyにおける活用事例を紹介。Difyではコミュニティ開発のMCP SSEプラグインとMCP Agent Strategyプラグインを利用可能。Zapier MCPを連携させることで、Gmailなど7,000以上のアプリとの連携が容易になる。設定はZapier MCPの設定画面からMCP Server Endpointをコピーし、Difyのプラグインに設定するだけ。これにより、AIエージェントがユーザーの指示に基づき、メール送信などのタスクを自動実行できるようになる。DifyはネイティブMCPサポートも開発中。
引用元: https://dify.ai/blog/dify-mcp-plugin-hands-on-guide-integrating-zapier-for-effortless-agent-tool-calls
AI・LLM事業部プロダクト開発体制についてLayerXのAI・LLM事業部におけるプロダクト開発体制を紹介。ビジネス部とプロダクト部の2部構成で、プロダクト部は開発、企画、LLM、デザインの各グループに分かれています。開発グループはAI Agent、WorkflowBuilder、Ai Workforceの各チームに分かれ、LLMツールを活用し生産性高く開発を推進。企画グループはPdMが開発チームと共同でプロダクト設計を進めます。LLMグループは顧客業務に特化したAIワークフローを構築し、WorkflowBuilderの機能追加・改善も行います。デザイングループはプロダクトとコミュニケーションのデザインを担当。チームコミュニケーション向上のため、Good & Newという取り組みも実施しています。
引用元: https://tech.layerx.co.jp/entry/2025/04/03/154128
任天堂スイッチ2、転売ヤー撃退へ「賢い解決策」導入–日本専用のハード、初代を50時間プレイ必須次世代Switchは転売対策として、日本専用版と多言語版の2モデル展開。日本専用版は言語設定が日本語のみ、アカウントも日本設定のみに制限し、価格を抑える。抽選販売では、初代Switchの50時間以上のプレイ実績と、1年以上のオンライン加入が条件となる。これにより、転売目的の購入を抑制し、真のファンに届けやすくする狙い。
引用元: https://japan.cnet.com/article/35231292/
DeepSeekがGPUの制限を突破するのに使われたPTX。その制約が突破の原動力になったDeepSeekが、米国のGPU輸出規制を逆手に取り、低スペックGPU(H800)で高性能GPU(H100)並みの性能を達成した事例。通常CUDAで開発するところを、より低レベルなPTX(アセンブラ)で直接GPUを制御し、通信速度のボトルネックを解消。投資ファンドでの高速化ノウハウが活きた。制約を打破する技術力が光る。
引用元: https://tamakino.hatenablog.com/entry/2025/04/03/080000
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク さまざまなAIエージェントを網羅したリスト「Awesome AI Agents」がGitHubにて公開
E2B社がAIエージェントのリスト「Awesome AI Agents」をGitHubで公開。OSS/クローズドソース別に、様々なAIエージェントをカテゴリやユースケースで検索可能。Adala, Agent4Rec, AgentForge, AgentGPTなどがOSSとして、Ability AI, Adept AIなどが企業提供として掲載。AI活用を検討する上で参考になるリソースです。
引用元: https://codezine.jp/article/detail/21266
人気殺到で制限していた「ChatGPT」画像生成、全ユーザーに開放OpenAIのChatGPTで、GPT-4oモデルを使った画像生成機能が無料ユーザーでも利用可能になりました。以前はアクセス集中で制限がありましたが、現在は誰でも使えるようになっています。話題のジブリ風画像生成も試せます。ただし、無料版は1日の生成回数に制限があります。AI開発競争が激化する中で、OpenAIは画像生成機能の開放でユーザー獲得を狙っています。AIの進化は目覚ましく、今後は動画生成など、より高度な機能も登場するかもしれません。
引用元: https://japan.cnet.com/article/35231247/
Devin的な自律型開発エージェントをAWS上に作ってみた!Devinのような自律型開発エージェントをAWS上に構築した事例紹介です。主な特徴は、クラウド上で並列動作、サーバーレス構成、MCPサーバーとの統合、コスト効率化など。OSSリポジトリの知識自動読み込み機能もあります。AWSアカウント、GitHubアカウント、Slackワークスペースがあれば利用可能。アーキテクチャは、APIGW+Lambda上のSlack BoltアプリがEC2インスタンスを起動し、エージェントが動作する構成。開発にはAWS AppSync Eventsを利用。詳細な手順はREADMEに記載。タスク遂行能力はLLMの種類に依存する傾向があるが、今後はUXやコスト効率が重要になる可能性。クラウド型エージェントは並列化が容易で、開発の効率化が期待できる。
引用元: https://tmokmss.hatenablog.com/entry/self_host_autonomous_swe_agents_on_aws
「熊本が大分を担いでるように見えた」ので描いたクマとゾウのイラストがそれにしか見えなくなる呪い熊本県と大分県の形をクマとゾウに見立てたイラストがTwitterで話題。一度見ると、そのイメージが頭から離れなくなるというユーモラスな内容。見た人からは「もうそうにしか見えない」「形が覚えやすくなった」などのコメントが寄せられている。
引用元: https://togetter.com/li/2533229
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク LLMモジュールの普通ではない使い方
M5Stack社LLMモジュールは、安価な基板単体で音声対話AIを実現する注目の技術です。通常はCoreシリーズと組み合わせて使用しますが、本記事では、モジュール単体でLinuxシステムとして活用する方法を紹介。モジュール内部のStackFlowシステムを直接制御し、音声入力、キーワード検出、音声認識、LLM、音声合成の各ユニットを初期化。PythonスクリプトでJSONコマンドを送信し、ウェイクワード検出からの応答を可能にします。Linux操作に慣れたエンジニアにとって、手軽にLLMモジュールを試せる手法です。今後は、より高性能なSoC搭載ボードで日本語対応も期待されています。
引用元: https://zenn.dev/fairydevices/articles/8c12677feb3be7
Minimize generative AI hallucinations with Amazon Bedrock Automated Reasoning checks Amazon Web ServicesAmazon BedrockのAutomated Reasoning checksは、生成AIの「幻覚」(もっともらしい誤情報生成)を抑制する機能です。これは、論理的推論と数学的検証を用いて、LLM(大規模言語モデル)の出力を検証し、誤りを防ぎます。企業内のルールやガイドラインを形式的な論理構造に変換し、それに基づいてAIの応答をチェックします。特に重要なのは、この機能が数学的な正確性に基づいて検証を行う点です。AIの応答が企業のポリシーに合致するかどうかを明確に判断できます。Automated Reasoning checksは、Amazon Bedrock Guardrailsの一部として提供され、コンテンツフィルタリングや個人情報保護などの機能と連携可能です。企業は、この機能を利用して、AIアプリケーションの信頼性を高め、安全に運用できます。
引用元: https://aws.amazon.com/blogs/machine-learning/minimize-generative-ai-hallucinations-with-amazon-bedrock-automated-reasoning-checks/
AI利用「ガチ実態」調査、誰が何にAIを使っているのか?アンソロピックが400万件以上のユーザー会話を分析した調査によると、AI利用の57%が「拡張・増強型」で、人間の仕事を補完する傾向が強いです。AIが最も利用されているのはプログラミングやテクニカルライティングなどのコンピューター関連業務で、全体の37.2%を占めます。次いでアート、デザイン、エンターテインメント関連が10.3%。AIは職務全体ではなく、特定のタスクで活用される傾向があり、全職種の約36%で職務タスクの4分の1以上でAIが活用されています。
引用元: https://www.sbbit.jp/article/cont1/161215
ちょっとお堅めの資料作成する時の挿絵、いらすとやでもいいけどいい感じのピクトグラム欲しいなぁ…と思っていたのでAIで生成できるようになって有難い資料作成で使えるピクトグラムをAIで生成できるようになったという話題です。これまでは既存の画像生成AIでは難しかったピクトグラム作成が可能になり、透過PNG形式で利用できます。さらに、生成した画像をSVG形式に変換できるツールも紹介されており、資料作成の効率化に繋がりそうです。
引用元: https://togetter.com/li/2532277
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Practical Tips for Preventing GPU Fragmentation for Volcano Scheduler NVIDIA Technical Blog
NVIDIAがKubernetesクラスタにおけるGPUの利用効率向上に取り組んだ事例を紹介。Volcano Schedulerで発生していたGPUのフラグメンテーション問題に対し、bin-packingアルゴリズムを導入し、GPUの使用率を約90%まで改善。課題は、gang schedulingによるリソースの同時要求と、ランダムな配置によるGPUの分散。解決策として、GPU、CPU、メモリの優先順位付け、bin-packingによる最適配置、gang schedulingとの連携を実施。これにより、リソースの可用性向上、GPU使用率の向上、コスト効率の改善を実現。
引用元: https://developer.nvidia.com/blog/practical-tips-for-preventing-gpu-fragmentation-for-volcano-scheduler/
AIが生成する物語をかき乱して改善する「アーキトロープ」という手法についてAIが物語を生成する際、既存のデータ学習により、ありきたりで説教臭い内容になりがちです。「アーキトロープ」は、物語の構造や展開に影響を与える語をランダムに選び、指示に追加することで、この問題を軽減する手法です。LLM(大規模言語モデル)は、与えられた語を結びつけ、意外な展開を生み出す特性があります。この手法は、物語のテーマやモチーフを再利用しやすい語としてまとめることで、LLMがより多様な物語を生成する手助けをします。重要なのは、語の選定、ランダムな選択、そして物語への影響です。この手法は、物語の構造を豊かにし、AIによる創作の可能性を広げます。
引用元: https://note.com/kogu_dev/n/nfe519a873fcc
AIコーディングエージェント勉強会タイトル: AIコーディングエージェント勉強会
要約:2025年3月25日のAIコーディングエージェント勉強会資料です。AIコーディングエージェントとは、AIがコードの自動生成、補完、デバッグなどを支援するツール。 Cline, Roo Code, GitHub Copilot Agent, Amazon Q Developer 等があります。 ClineとRoo Codeは無償で入手可能、GitHub Copilotは有償。 ClineがSNSでの言及が多く、情報も豊富です。今後は、自然言語でAIに指示し、AIが生成したコードを検証・最適化する役割が重要になります。指示を具体的に記述し、最初は小さく作って継ぎ足していくのが良いでしょう。 .clinerulesに設計標準やコーディング規約を記述します。Amazon Q Developer CLI AgentはAWS環境の運用やドキュメンティングの自動化に利用できます。プログラマの仕事はAIによって変わりますが、AIツールを使いこなせるエンジニアの需要は高まります。
引用元: https://speakerdeck.com/nasuvitz/aikodeinguezientomian-qiang-hui
この前買ったスティックのりのUIがあまりにもクソだったのでこうなった「セブンのコーヒーマシン現象だ」「割と自分はわかりやすいと思うけどな」話題のスティックのり(GLOO)は、四角い形状で角まで塗りやすい反面、フタの開け方や上下が分かりにくいという声が多いようです。特に、回す部分とフタを間違えやすいという意見が多数。見た目の紛らわしさから、直感的な操作が難しい点が課題です。「セブンのコーヒーマシンみたい」という意見も。改善案として、へこみをつけるなど、触覚的な区別を付けるアイデアが出ています。
引用元: https://togetter.com/li/2532371
お便り投稿フォームVOICEVOX:ちび式じい
-
関連リンク Vercel AI SDK で MCP クライアントをツールとして利用する
この記事では、Vercel AI SDKを使って、LLM(大規模言語モデル)に外部ツール連携機能を追加するMCP(Model Context Protocol)クライアントを利用する方法を解説します。MCPはLLMが外部のデータやツールを利用するための共通ルールです。Vercel AI SDKを使うと、MCPクライアントを簡単に組み込めます。Microsoftのplaywright-mcpを例に、Webブラウザ操作ツールをLLMから使えるようにする方法を紹介。SSEを使ってローカルサーバーと通信し、experimental_createMCPClientでクライアントを初期化。mcpClient.tools()でツール定義を取得し、LLMに渡します。使い終わったらmcpClient.close()で接続を閉じることが重要です。Schema Discoveryを使うと、ツール定義を自動で取得できます。
引用元: https://azukiazusa.dev/blog/vercel-ai-sdk-mcp-client
MCPはゲームチェンジャーになるのかMCP(Model Context Protocol)は、AIが外部データやツールと安全に連携するための共通プロトコルです。従来のAIは知識が限定的で、外部システムとの連携が難しく、開発コストも高かったのですが、MCPはこれらの課題を解決します。MCPは、AIをUSB-Cポートのように様々な外部サービスと繋ぎ、データの取得や書き込みを可能にします。Anthropic社が仕様とSDKを公開しており、開発者は自社のデータやサービスをMCPサーバー経由で公開できます。従来のプラグイン型やフレームワーク型、RAG型のアプローチは部分的な解決に留まっていましたが、MCPはオープンなプロトコルであり、大手AI企業のサポートもあり、業界標準となる可能性があります。MCPにより、AIは自律的に外部情報を取得し、実世界への働きかけが可能になり、生成AIの可能性を大きく広げると期待されています。
引用元: https://zenn.dev/eucyt/articles/mcp-server-impact
Cline / Roo-Codeにおけるコード理解と新規・保守タスクの現状Cline/Roo-Codeは、Tree-sitterとLLMを使い、必要なコードだけを逐次解析するツールです。全体をインデックス化しないため、大規模リポジトリでも動きますが、得意なことと苦手なことがあります。
得意なのは、単一ファイルや少数のファイルに対する小規模な修正や機能追加です。一方、全体的な依存関係を把握できないため、大規模なリファクタリングやデッドコードの検出は苦手です。
Clineを効果的に使うには、ドキュメントコメントや依存関係マップを整備し、タスクを細かく分割することが重要です。また、gitログ分析ツールなどと組み合わせることで、より高度なリファクタリングも可能になります。
新規プロジェクトや小規模なコードベースでは、Clineの強みが活かしやすいでしょう。 Clineは、CursorやWindsurfに比べ、手軽に利用でき、プロンプトを細かく制御できる点が魅力です。
引用元: https://zenn.dev/tesla/articles/33d196d17bf3bb
保育園のお迎え行ったら「機密情報入ってるので見せられないが、謎の動作をするExcel」の話をされてエスパーデバッグに突入したバックエンドエンジニアの筆者が、保育園で先生からExcelの不具合について相談を受けた話。シートが勝手に右にスクロールしてしまう現象に対し、画面が見れない状況で原因を特定しようと試みるも、解決には至らず。他のエンジニアからも様々な原因が寄せられたが、キーボードの故障やExcelの設定ミスなどが考えられる。最終的に、原因特定には実機確認が必要と結論。
引用元: https://togetter.com/li/2531930
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク GPT-4oとGemini-2.0の画像生成能力はいかにして作られているのか
Gemini-2.0とGPT-4oの画像生成技術は、拡散モデルから自己回帰モデルへの進化、そしてAny-to-Anyモデルという概念の登場によって実現されました。Partiは言語モデルの技術を画像生成に応用し、CM3leonはテキストと画像を双方向に扱えるようにしました。これらの研究が、テキスト、画像、音声を統合的に扱えるAny-to-Anyモデルへと繋がり、Gemini-2.0とGPT-4oが誕生しました。これらのモデルは、異なる種類のデータを統一された表現で処理し、大規模な学習によって高品質な生成を可能にしています。
引用元: https://zenn.dev/discus0434/articles/gemini-2-0-mm
みんなのためのLLMアプリケーション開発環境の構築事例この記事は、LLMアプリケーション開発を容易にするための環境構築事例です。LLM開発では、プロンプトとコードの分離、複雑なRAG構成、デプロイの難しさが課題でした。解決策として、(1)プロンプトを共有・実行できるPrompt Storeの開発、(2)Langflowを用いたビジュアルスクリプティングの導入、(3)簡単なデプロイシステムの構築を行いました。Langflowは、GUIでLLMアプリを開発できるツールで、カスタムコンポーネントを追加することで、機能拡張も可能です。これらの取り組みにより、専門家でなくてもLLMアプリを開発・デプロイできる環境が実現し、開発サイクルが大幅に短縮されました。
引用元: https://techblog.lycorp.co.jp/ja/20250327a
まさかの。Androidオープンソースプロジェクト、非公開開発に - すまほん!!GoogleがAndroid OSの開発を非公開化。今後は社内ブランチに一本化し、開発プロセスを効率化する狙い。一般ユーザーやアプリ開発者への影響は少ないものの、カスタムROM開発者などプラットフォームをカスタマイズする開発者には影響が出る可能性あり。OSのソースコードはリリース時に公開されるため、完全な非公開化ではない。
引用元: https://smhn.info/202503-google-aosp
ChatGPTに、信じられないほど低品質で今すぐChatGPT有料プランを解約したくなるような画像を頼んだら、ユーモアあふれる画像が出てきた話「林家GPT亭名乗れる」ChatGPTに「低品質な画像を」と依頼したところ、予想外にユーモラスな画像が生成され話題になっています。まるで大喜利のようなセンスに、「笑点」を理解しているとの声も。
引用元: https://togetter.com/li/2530653
お便り投稿フォームVOICEVOX:ずんだもん
-
告知宣伝なのだ。4月10日木曜日18時半から「LangChainとLangGraphによるRAG・AIエージェント実践入門」10章 要件ドキュメント生成AIエージェントの輪読会を開催するのだ。気軽に参加してほしいのだ。詳しくはpodcastホームページを見てほしいのだ。 関連リンク Model context protocol (MCP) - OpenAI Agents SDK
OpenAI Agents SDKにおけるMCP(Model Context Protocol)は、LLM(大規模言語モデル)が外部ツールやデータソースにアクセスするための標準化されたプロトコルです。MCPは、AIアプリケーションにおけるUSB-Cポートのように、LLMと様々なツールを接続する共通のインターフェースを提供します。
MCPサーバーには、ローカルで動作するstdioサーバーと、URL経由で接続するHTTP over SSEサーバーの2種類があります。Agents SDKでは、MCPServerStdioとMCPServerSseクラスを使ってこれらのサーバーに接続できます。
MCPサーバーをAgentに追加することで、Agentはサーバーのツールを認識し、必要に応じて呼び出すことができます。list_tools()でツール一覧を取得し、call_tool()でツールを実行します。
ツールリストはキャッシュすることも可能です。ツールリストが変更されないことが確実な場合に、cache_tools_list=Trueを設定することで、レイテンシを改善できます。キャッシュを無効化する場合は、invalidate_tools_cache()を呼び出します。
引用元: https://openai.github.io/openai-agents-python/mcp/
“「生成AIこんなものか」と諦める前に” 営業AIエージェント開発現場から学ぶLLM品質保証テクニックLLMの品質保証は、従来のシステム開発とは異なり、事前の網羅的なテストだけでは不十分です。重要なのは、品質を継続的にモニタリングし、改善していく運用戦略です。具体的な戦略として、
エラーパターンの言語化と継続的改善 評価と生成の分離 LLMの逃げ道を作るという3つのポイントを紹介しています。重要なのは、LLMの限界を理解した上で、課題の検知と対処の仕組みを構築することです。引用元: https://tech.algomatic.jp/entry/2025/03/26/182954
中国DeepSeek、非推論モデルで「米国製AI」を凌駕するスコア–OpenAIやGoogleを上回る中国のDeepSeek V3が、AIのベンチマークでOpenAIやGoogleを上回り、非推論モデルでトップに。DeepSeek V3はオープンソースで、高速かつ低コストなのが特徴。推論モデルではないため大規模データ向けではないものの、多くのタスクで実用的な点が強みです。中国AI企業がオープンソース戦略で米国に対抗する構図が見えます。
引用元: https://japan.cnet.com/article/35230944/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク 財布を気にしたくないのでローカルLLM(Gemma3)にコードを書かせてみた
この記事では、ローカルLLMのGemma3を使って、API課金を気にせずコーディングできるか検証しています。LM StudioとClineを使い、Gemma3をVSCodeから利用する環境構築手順を解説。Gemma3 4Bでは簡単なコード生成に手間取ったものの、外部サービスより高速。Gemma3 12Bは正しく動作したが低速。今後のモデル改良に期待しつつ、ローカルLLM活用を検討する価値はあると結論付けています。
引用元: https://tech.mntsq.co.jp/entry/2025/03/25/102902
Microsoft Playwright MCPが切り拓くLLMとブラウザの新たな統合Microsoftが開発したPlaywright MCPは、LLMとブラウザを連携させる技術です。従来の画像認識と異なり、ウェブページの構造データを利用し、LLMがウェブ操作を効率的に行えます。テスト自動化、データ収集、顧客サポート、コンテンツ管理などで活用でき、テストコードの自動生成やサイト変更への自動対応を実現します。設定も比較的簡単で、今後の発展も期待されています。
引用元: https://zenn.dev/kimkiyong/articles/679faf454b0ee0
Gemini 2.5: Our most intelligent AI modelGoogle DeepMindが最新AIモデルGemini 2.5を発表しました。特に、Gemini 2.5 Pro Experimentalは、思考能力を持ち、複雑な問題解決に特化しています。各種ベンチマークで高い性能を示し、LMArenaのリーダーボードで首位を獲得。推論能力とコーディング能力が向上しており、Google AI StudioとGemini Advancedで利用可能です。近日中にVertex AIでも利用可能になる予定です。開発者はGoogle AI Studioで試すことができます。
引用元: https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク 言語モデルの物理学
MetaのZeyuan Allen-Zhuが提唱する「言語モデルの物理学」は、言語モデルを原理的に理解しようとする研究です。(1)ウェブデータではなく、コントロールされたデータセットでモデルを訓練し、(2)モデルの内部状態を詳細に分析します。6本の論文からなる研究では、言語モデルが文法構造を内部で習得し、動的計画法のような処理を行うこと、算数の問題を最短経路で解くこと、間違いに気づき修正できることなどが示されました。また、知識の貯蔵と抽出は異なり、知識を操作するには思考の連鎖が必要であること、モデルはパラメータあたり約2ビットの情報を記憶できることなどが明らかに。これらの知見は、より効率的な言語モデルの開発に役立つ可能性があります。
引用元: https://joisino.hatenablog.com/entry/physics
New State-of-the-art Fully Open 3B Language Models — ROCm BlogsAMDがInstellaという30億パラメータの言語モデルを発表しました。AMD Instinct MI300X GPUで学習されており、同規模の既存オープンモデルより高性能です。Llama-3.2-3B等のオープンウェイトモデルにも匹敵。モデルウェイト、学習設定、データセット、コードは全て公開。AIコミュニティでの協力と技術革新を促進します。Instellaは、FlashAttention-2、Torch Compile、FSDP等の効率的な学習技術を使用。Instella-3B-Stage1, Instella-3B, Instella-3B-SFT, Instella-3B-Instructの4モデルが公開。
引用元: https://rocm.blogs.amd.com/artificial-intelligence/introducing-instella-3B/README.html
ゼロからコーディングエージェントを作るならこんなふうに🛠️この記事は、XMLベースのツール定義と実装で、ミニマムなコーディングエージェントを自作する方法を紹介しています。最低限必要なツールは、ListFile、ReadFile、WriteFile、AskQuestion、ExecuteCommand、Completeの6つです。LLMにXML形式でツールを使わせることで、プログラムと会話の融合が実現できます。Go言語での実装例が示されていますが、言語依存はありません。ExecuteCommandの実装では、セキュリティのためユーザーの許可を得るようにしましょう。拡張性を考えるなら、ブラウザ操作ツールやデータベース操作ツールなどを追加すると良いでしょう。
引用元: https://zenn.dev/minedia/articles/11822c2b509a79
「なぜスパム投稿は内容が雑なのか?」と思ったら、アホな内容に引っかかる選別がコツらしく合理化が進んでいる「悪行にも損益分岐点がある」スパム投稿の内容が雑なのは、効率を上げるため。賢い人が引っかかると、質問が多く対応が大変になるので、最初から知識の少ない人だけをターゲットにしている。注意喚起だけでは防げないため、システムレベルでの対策が必要。
引用元: https://togetter.com/li/2529599
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク LLM x Slack x Notion で論文インプットを効率化し、社内ナレッジ蓄積もできるようにした話
neoAIが、論文インプットの課題を解決するために開発したLLM Botを紹介。論文を読む文化の重要性に対して、情報の多さや読むこと自体のハードルがあった。解決策として、Slackに論文URLを投稿するだけで、要約とQ&Aを自動生成しNotionに蓄積するBotを開発。AWS Lambda、Slack API、Notion APIを使用。導入後、論文インプットのハードルが下がり、情報共有が促進された。
引用元: https://zenn.dev/neoai/articles/768b65f5655171
Cursorを使った文章執筆は、AIファーストな環境整備から始まるAIエディタCursorで執筆効率を上げる方法を紹介。重要なのは、(1)ObsidianでMarkdown形式で情報を一元管理、(2)音声入力とAIでの修正、(3)Cursorで情報とAIを連携、の3点。Obsidianを情報集約地とし、CursorのマルチルートワークスペースでObsidianの情報を参照・編集、Gitで履歴管理、iCloudでモバイル連携。AIエージェントが自律的にファイル探索や構造整理を支援。AI活用には、情報の一元化とMarkdown形式での統一が不可欠。
引用元: https://honeshabri.hatenablog.com/entry/cursor_markdown_ecosystem
Next.jsの脆弱性CVE-2025-29927まとめNext.jsに認可バイパスの脆弱性CVE-2025-29927が発見されました。影響を受けるのはNext.js 15.2.2以前、14.2.24以前、11.1.4から13.5.6。対策として、15.2.3または14.2.25以降へアップデートしてください。古いバージョンはアップデートが提供されないため、リバースプロキシでx-middleware-subrequestヘッダーを除去する等の対策が必要です。この脆弱性は、攻撃者が特定のHTTPヘッダーを送信することで、認証を回避し保護されたリソースにアクセスできるものです。アクセスログを監視し、不審なリクエストがないか確認することも推奨します。
引用元: https://zenn.dev/t3tra/articles/c293410c7daf63
「この断末魔も春を感じるよ」iPhoneじゃないとイジメられると泣き叫ぶ子供に親がGALAXY A25を与える姿をみた話携帯ショップ店員が、子供がiPhoneをねだるも親がGALAXY A25を与える場面に遭遇した話。背景には、学生の間でiPhoneが一種のステータスとなっている現状がある。AirDropの利用や、インフルエンサーの影響も大きい。AndroidにもQuick Shareがあるが、iPhoneとの互換性はない。GALAXYのAシリーズはローエンドモデルで、性能が良いものならiPhoneを超えるという意見もある。
引用元: https://togetter.com/li/2529130
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク Vercel AI SDK と mastra を使った AI Agent 開発 Tips
Vercel AI SDKとmastraを使ったAI Agent開発の知見を紹介。SDK選定では、TypeScriptで使いやすいVercel AI SDKがおすすめ。ツール呼び出しの抽象化が容易だが、長いAgent処理ではSDKのループ外で自前のループを構築し、メッセージ履歴を管理する必要がある。Geminiは安価だが不安定な場合がある。mastraはVercel AI SDKをベースにしたフレームワークで、マルチエージェント協業やRAGが容易だが、裏側の動きが分かりにくい点とライセンスに注意。memory機能でメッセージ管理が容易になる。RAG構築はVercel AI SDKでも可能だが、mastraの方がより抽象化されている。メッセージ改変時の注意点も解説。
引用元: https://zenn.dev/bm_sms/articles/vercel_ai_sdk_mastra_ai_agent
LLMにJSONやソースコードを出力させるStructured Generationの技術LLMでJSONやソースコードを生成する際、形式が崩れる課題があります。そこで、出力トークンを制御し、形式を保証するStructured Generationが注目されています。パーサーを用いて文法的に誤った出力を防ぐ方法がありますが、計算コストが課題です。正則言語(正規表現で表現可能)では、DFA(決定性有限オートマトン)を利用し、状態遷移と語彙の関係を事前計算することで効率化します。文脈自由言語(JSONなど)では、字句解析と構文解析を行い、次に来るべき終端記号を絞り込み、効率的なトークン制御を実現します。これらの技術により、LLMによる構造化データ生成を安定化できます。
引用元: https://engineers.ntt.com/entry/202503-structured-generation/entry
From innovation to impact: How AWS and NVIDIA enable real-world generative AI success Amazon Web ServicesAWSとNVIDIAは、生成AIの実用化を支援。重要なのはGPUだけでなく、オーケストレーション、ストレージ、ネットワーキング基盤。AdobeはAWSとNVIDIAの技術でモデル学習を20倍にスケールアップ。Perplexityは、AWSとNVIDIAの組み合わせにより、低レイテンシーと柔軟性を実現。Ciscoは、モデルとアプリケーションを分離することで開発速度とコスト効率を向上。Hippocratic AIは、安全性を重視した医療AIを構築。AWSとNVIDIAは、AI導入を支援する技術と事例を提供。
引用元: https://aws.amazon.com/blogs/machine-learning/from-innovation-to-impact-how-aws-and-nvidia-enable-real-world-generative-ai-success/
近い将来「愚痴はAIに話すのがマナー」になってるかもという妄想漫画「AIは素直に聞いてくれる」「人間らしさはそこにはあるのか」漫画家の一秒氏が、近い将来「愚痴はAIに話すのがマナー」になるかもしれないという妄想をTwitterに投稿し、話題を呼んでいます。多くのユーザーがこのアイデアに共感し、既にAIに愚痴や相談をしている人もいるようです。AIは人間と違い、感情的な負担をかけずに愚痴を聞いてくれるため、人間関係に配慮する現代社会において、AIと人間で役割分担をする未来が来るかもしれません。
引用元: https://togetter.com/li/2527525
お便り投稿フォームVOICEVOX:ずんだもん
- Laat meer zien