05 Jun 2025, 21:22
Anthropic представила моделі Claude Gov для підтримки національної безпеки США
- Моделі Claude Gov спеціально налаштовані для аналізу секретної інформації.
- Anthropic вносить винятки у свої політики використання для державних агентств, але зберігає заборони на шкідливі дії.
- Кілька провідних AI-компаній пропонують рішення для сектору безпеки.
Про це повідомляють TechCrunch, The Verge.
5 червня 2025 року компанія Anthropic оголосила про запуск спеціальних AI-моделей Claude Gov, створених для потреб оборонних і розвідувальних агентств США. Ці моделі були розроблені за прямим зворотним зв'язком із державними клієнтами для вирішення реальних оперативних завдань, таких як стратегічне планування, підтримка операцій та аналіз розвідувальної інформації.
Claude Gov має розширені можливості роботи з класифікованими матеріалами, краще розуміє документи у сфері оборони та розвідки, а також демонструє підвищену компетентність у мовах і діалектах, важливих для національної безпеки. Моделі вже використовуються у державних структурах найвищого рівня, а доступ до них обмежено агентствами, що працюють із секретними даними.
Зазначається, що Claude Gov проходить такі ж суворі тести безпеки, як і інші моделі Anthropic. Водночас компанія коригує обмеження використання AI, аби дозволити корисне застосування для державних структур, але зберігає заборони на шкідливі дії: розробку чи розповсюдження зброї, кампанії дезінформації, цензуру, а також зловмисні кібератаки.
Anthropic не єдина серед великих AI-компаній, що розробляють рішення для державних структур. OpenAI, Meta, Google та Cohere також пропонують свої продукти для сфери національної безпеки, а компанія Scale AI підписала багатомільйонний контракт із Міністерством оборони США на створення AI-агентів для військового планування.
Теги: США/Технології/ШІ