Новини за изкуствения интелект, 9 март 2026 г

Обобщение на новините за изкуствения интелект: 9 март 2026 г

⚖️ Anthropic съди, за да блокира включването на Пентагона в черен списък заради ограничения за използване на изкуствен интелект

Anthropic заведе дело срещу Пентагона, след като беше определена като риск за веригата на доставки. Компанията твърди, че ходът е незаконен отговор за отказа си да разхлаби предпазните мерки около автономните оръжия и вътрешното наблюдение - което поставя този спор сред най-ожесточените точки в политиката за изкуствен интелект в момента. ( Ройтерс )

Правителството иска гъвкавост за „всяка законна употреба“, докато Anthropic твърди, че на частните лаборатории все още трябва да бъде позволено да определят твърди граници на безопасност. Това се превърна в един от най-ясните тестове досега за това дали една компания за изкуствен интелект може да каже „не“ на военни условия, без да бъде прегазена заради това. ( Ройтерс )

🧑💻 Служители на OpenAI и Google подкрепят делото на Anthropic срещу Пентагона

Този иск бързо привлече подкрепа и от конкурентни лаборатории. Близо 40 служители на OpenAI и Google подкрепиха Anthropic в становище „amicus curiae“, твърдейки, че ответните мерки срещу фирми заради ограниченията за безопасност на ИИ нарушават обществения интерес. ( The Verge )

Така че да, конкурентите внезапно се оказаха на една и съща страна - поне по този въпрос. Заданието се фокусира върху масовото наблюдение и ненадеждните автономни оръжия, което кара цялата афера да изглежда по-малко като стандартно снайпериране в Силициевата долина и по-скоро като истинска индустриална линия в пясъка... или калта, може би. ( The Verge )

🛡️ OpenAI придобива Promptfoo, за да защити своите AI агенти

OpenAI обяви, че купува Promptfoo, стартираща компания, фокусирана върху защитата на големи езикови модели от враждебни атаки. Планът е технологията ѝ да бъде интегрирана в OpenAI Frontier, корпоративната платформа на компанията за AI агенти. ( TechCrunch )

Това е показателен ход. Всички искат агентният ИИ да прави повече, по-бързо, навсякъде - но сигурността изостава, независимо дали с малко или с много. Тази сделка предполага, че OpenAI смята, че следващата голяма надпревара е не само за по-умни агенти, но и за по-безопасни. ( TechCrunch )

🧪 Anthropic стартира инструмент за преглед на код, за да провери потока от генериран от изкуствен интелект код

Anthropic пусна Code Review в Claude Code, насочен към екипи, затрупани с pull requests, създадени от инструменти за AI кодиране. Той използва множество агенти едновременно, за да сканира кода, да маркира логически проблеми, да класира тежестта им и да оставя коментари директно в GitHub. ( TechCrunch )

Идеята е достатъчно проста - изкуственият интелект генерира код по-бързо, отколкото хората могат разумно да го прегледат, така че сега изкуственият интелект трябва да прегледа другия. Схема, която леко наподобява „змия си яде опашката“, но е практична. Anthropic казва, че е насочена към корпоративни потребители, които вече виждат масивен изходен код от Claude Code. ( TechCrunch )

💰 Подкрепената от Nvidia Nscale е оценена на 14,6 милиарда долара в нов кръг на финансиране

Британската компания за изкуствен интелект Nscale набра 2 милиарда долара в кръг от серия C, достигайки оценка от 14,6 милиарда долара. Сред поддръжниците бяха Aker, 8090 Industries, Nvidia, Citadel, Dell и Jane Street - което се равнява на доста сериозен вот на доверие. ( Ройтерс )

Това е важно, защото не е поредното пускане на модел или промяна на чатбот. Това е част от бума, в която се използват кирки и лопати - изчисления, инфраструктура, капацитет, всички тежки машини зад завесата. Може би не е бляскаво, но именно там сега се стичат голяма част от парите. ( Ройтерс )

🧠 AMI Labs на Ян ЛеКун набира 1,03 милиарда долара за изграждане на световни модели

Новото начинание на Ян ЛеКун, AMI Labs, набра 1,03 милиарда долара при оценка преди инвестиране от 3,5 милиарда долара. Компанията се стреми към „световни модели“ - системи с изкуствен интелект, предназначени да учат от самата реалност, а не предимно от езика. ( TechCrunch )

Това е директен философски удар по настоящия консенсус, основан на LLM, и то доста директен. Льокън от години твърди, че днешните езикови модели няма да ни отведат чак до нивото на интелигентност на човешко ниво, така че това повдигане на въпроса превръща този аргумент в много скъп експеримент. ( TechCrunch )

🇨🇳 Китайските технологични центрове рекламират OpenClaw AI агент въпреки предупрежденията за сигурност

Няколко китайски местни власти подкрепят OpenClaw, агент с изкуствен интелект, който се разпространява бързо въпреки опасенията за сигурността, свързани с достъпа му до лични данни. Така че официалното настроение изглежда е: да, има рискове - и да, нека го мащабираме въпреки това. ( Ройтерс )

Това разделение е историята. Местните центрове искат икономическия ръст и инерцията на екосистемата, докато регулаторите предупреждават за излагане на данни. Това е познат модел на изкуствения интелект вече - първо спринт, после подреждане на предпазните огради, или поне така изглежда. ( Ройтерс )

ЧЗВ

Защо Anthropic съди Пентагона за ограниченията за използване на изкуствен интелект?

Anthropic твърди, че Пентагонът го е определил като риск за веригата на доставки, след като компанията е отказала по-широки условия, които биха могли да обхванат автономни оръжия и вътрешно наблюдение. Това прави делото нещо повече от статут на доставчик. То тества дали лаборатория с изкуствен интелект може да поддържа твърди ограничения за безопасност и все пак да се конкурира за правителствена работа, без да бъде санкционирана.

Защо служителите на OpenAI и Google подкрепят Anthropic в този спор за безопасността на изкуствения интелект?

Докладът на „amicus curiae“ показва, че много хора в конкурентни лаборатории виждат това като прецедентен проблем с безопасността на ИИ, а не просто като борба между една компания и една агенция. Тяхната загриженост е, че наказването на доставчик за поддържане на червени линии може да окаже натиск върху по-широкия пазар да отслаби предпазните мерки. На практика това би могло да повлияе на начина, по който се договарят бъдещите договори за ИИ в отбраната и публичния сектор.

Какво би могъл да промени случаят „Антропо-Пентагон“ за политиката в областта на изкуствения интелект и договорите за отбрана?

Ако Anthropic спечели, компаниите за изкуствен интелект може да имат по-силна основа да дефинират неприемливи приложения, дори когато продават в чувствителни правителствени среди. Ако загуби, агенциите биха могли да получат предимство да изискват по-широки условия за „законно използване“ от доставчиците. Така или иначе, този спор вероятно ще повлияе на езика на обществените поръчки, прегледите на риска и начина, по който предпазните мерки са включени в сделките за отбрана.

Защо OpenAI купи Promptfoo за AI агенти?

Promptfoo е известен с тестването на големи езикови модели срещу враждебни подкани и други слабости в сигурността. Включването на този вид инструменти в платформата за корпоративни агенти на OpenAI предполага, че компанията вижда по-безопасното внедряване като конкурентно предимство, а не като странична задача. Тъй като агентите с изкуствен интелект поемат по-съществена работа, тестовете за устойчивост и злоупотреба стават много по-трудни за игнориране.

Как екипите могат да се справят по-безопасно с потопа от генериран от изкуствен интелект код?

Новата функция за преглед на код на Anthropic в Claude Code е насочена към екипи, претоварени от заявки за изтегляне, генерирани от инструменти за кодиране с изкуствен интелект. Тя използва множество агенти едновременно, за да открива логически проблеми, да класира тежестта им и да оставя коментари в GitHub. Обикновено инструменти като този помагат за сортиране на обема, но човешките рецензенти все още са важни за архитектурата, контекста и окончателното одобрение.

Защо инфраструктурата с изкуствен интелект получава толкова много инвестиции в момента?

Последният кръг на финансиране на Nscale подчертава, че индустрията за изкуствен интелект все още налива огромен капитал в изчисления, инфраструктура и капацитет. Тези разходи може да са по-малко видими от бляскавото пускане на пазара на модел, но те са в основата на всичко останало. Когато търсенето на обучение и внедряване продължава да нараства, компаниите, продаващи кирки и лопати, често се превръщат в едни от най-големите печеливши.

Какво представляват световните модели и защо Ян ЛеКун залага на тях?

Световните модели са системи с изкуствен интелект, предназначени да се учат от това как се държи светът, вместо да разчитат предимно на езикови данни. Това е важно, защото Ян ЛеКун отдавна твърди, че езиковите модели сами по себе си е малко вероятно да достигнат интелект на човешко ниво. AMI Labs превръща тази гледна точка в сериозен търговски залог за различен път за напреднали изследвания в областта на изкуствения интелект.

Защо китайските технологични хъбове подкрепят OpenClaw въпреки предупрежденията за сигурност?

Историята на OpenClaw показва познато разделение в рамките на бързо развиващите се технологични пазари: местните власти искат растеж, субсидии и инерция на екосистемата, докато регулаторите се тревожат за излагането на данни и сигурността. Подкрепата за агента въпреки предупрежденията предполага, че на някои места преобладават икономически стимули. За наблюдателите това е още едно напомняне, че приемането често се случва по-бързо от надзора.

Новини за изкуствения интелект от вчерашния ден: 8 март 2026 г

Намерете най-новия изкуствен интелект в официалния магазин за асистенти с изкуствен интелект

За нас

Обратно към блога