🤖 Ръководителят на хардуера на OpenAI подава оставка след сделка с Пентагона ↗
Ръководителят на отдела за хардуер и роботика на OpenAI, Кейтлин Калиновски, се оттегли след сделката на компанията с Пентагона, заявявайки, че ходът не е получил достатъчно вътрешно обсъждане, преди моделите да бъдат одобрени за класифицирани отбранителни мрежи. Основното ѝ безпокойство беше съвсем директно - човешки надзор, граници на наблюдение и риск от твърде бързо разпространение на смъртоносна автономност. ( Ройтерс )
OpenAI твърди, че споразумението включва допълнителни предпазни мерки и все още забранява вътрешното наблюдение и използването на автономни оръжия. Въпреки това, оставката кара цялото нещо да се чете по-малко като гладка актуализация на политиката и по-скоро като противопожарна врата, затваряща се по средата на среща. ( Ройтерс )
🏗️ Oracle и OpenAI се отказват от план за разширяване на центровете си за данни в Тексас, съобщава Bloomberg News ↗
Според съобщенията Oracle и OpenAI са се отказали от плановете си за разширяване на големия си център за данни с изкуствен интелект в Абилин, Тексас, след като преговорите за финансиране се проточиха и изчислителните нужди на OpenAI се промениха. Мястото беше част от по-широкия проект за изграждане на инфраструктура на Stargate, така че това далеч не е маловажно. ( Ройтерс )
Съществуващият кампус остава в експлоатация, а компаниите казват, че по-широкото изграждане на многогигаватова мощност продължава и другаде. В същото време, изоставеното разширение може би сега ще отвори път за Meta, която според съобщенията е обсъждала отдаването под наем на обекта. Инфраструктурата с изкуствен интелект продължава да се движи като мокър цимент - тежка, скъпа и никога напълно неустановена. ( Ройтерс )
⚖️ Пентагонът определя Anthropic като риск за веригата за доставки ↗
Пентагонът официално определи Anthropic като риск за веригата на доставки, ограничавайки използването на Claude в договори с Министерството на отбраната, след като компанията отказа да разхлаби предпазните мерки срещу автономни оръжия и масово наблюдение. Това е в основата на проблема - борба за обществени поръчки, която се превърна в много по-голяма борба за ценности. ( Ройтерс )
Anthropic твърди, че ходът не е правно обоснован и планира да го оспори в съда. Обозначението е необичайно строго за американска лаборатория за изкуствен интелект и се озовава в средата на по-широк спор относно това дали компаниите, работещи по граничен модел, трябва да включат по-строги правила в договорите за отбрана или да се доверят на съществуващото законодателство, за да свършат работата... което не всеки е готов да направи. ( Ройтерс )
💬 Meta ще позволи на конкурентите си с изкуствен интелект да използват WhatsApp в опит да предотвратят действията на ЕС ↗
Meta заявява, че ще позволи на конкурентните чатботове с изкуствен интелект да работят в WhatsApp в Европа за една година, използвайки Business API, след натиск от страна на антитръстовите регулатори на ЕС. Конкурентите се оплакаха, че Meta на практика ги блокира, като същевременно фаворизира собствения си асистент - показателен детайл, като се има предвид колко централизирано се е превърнало разпространението в областта на изкуствения интелект. ( Ройтерс )
Уловката е, че достъпът е платен, а критиците твърдят, че това все още поставя по-малките конкуренти в неизгодно положение. Регулаторите решават дали тази отстъпка е достатъчна, така че това се чете по-малко като мирен договор и повече като бутон за пауза, обвит в документи. ( Ройтерс )
📜 xAI губи опит за спиране на закона за разкриване на данни от изкуствения интелект в Калифорния ↗
xAI загуби опита си да блокира калифорнийски закон, който изисква компаниите за изкуствен интелект да разкриват повече за данните, използвани за обучение на техните модели. Отказът на съда да спре закона означава, че xAI сега е изправен пред същия натиск за прозрачност, който други създатели на модели се опитват, понякога неловко, да избегнат. ( Ройтерс )
Това е важно, защото споровете за данните за обучение вече не са само академични или свързани с авторските права - те се превръщат в проблем на живо, свързан със спазването на правилата. За xAI, който вече се сблъсква с повтарящи се спорове за безопасността около Grok, това добавя още една тежест към раницата, подобна на регулатор. ( Ройтерс )
ЧЗВ
Защо ръководителят на отдела за хардуер и роботика на OpenAI подаде оставка след сделката с Пентагона?
Кейтлин Калиновски се оттегли, защото смяташе, че решението за разрешаване на модели за класифицирани отбранителни мрежи не е получило достатъчно вътрешно обсъждане. Нейните опасения бяха съсредоточени върху човешкия надзор, ограниченията на наблюдението и риска от твърде бързо разпространение на смъртоносната автономност. OpenAI заяви, че споразумението все още забранява вътрешното наблюдение и използването на автономни оръжия, но оставката предполага, че вътрешният дебат не е напълно разрешен.
Какво всъщност означава, че Пентагонът нарича Anthropic риск за веригата за доставки?
Това означава, че Claude ще бъде ограничен от употреба в договори на Министерството на отбраната, което е сериозен проблем при обществените поръчки. Според статията, спорът е съсредоточен върху отказа на Anthropic да отслаби гаранциите, свързани с автономните оръжия и масовото наблюдение. Anthropic твърди, че обозначението не е правно обосновано и планира да го оспори, така че това може да се превърне както в съдебна битка, така и в политически тест.
Защо отмененото разширяване на центъра за данни в Тексас е от значение в новините за индустрията за изкуствен интелект?
Изоставеното разширение на Абилин е важно, защото е част от по-широкия тласък към инфраструктурата на Старгейт, обвързвайки го с дългосрочното планиране на изчислителните мощности с изкуствен интелект. Ройтерс съобщава, че съществуващият кампус все още функционира, но забавянията във финансирането и променящите се нужди от изчислителни мощности са накарали Oracle и OpenAI да се откажат от разширяването. Това показва и колко бързо могат да се променят основните залози за инфраструктура с изкуствен интелект, дори когато по-широкото изграждане продължава другаде.
Защо Meta допуска конкурентни чатботове с изкуствен интелект в WhatsApp в Европа?
Meta предприе този ход след натиск от страна на антитръстовите регулатори на ЕС и оплаквания, че облагодетелства собствения си асистент, като същевременно ограничава конкурентите. Достъпът е временен и се осъществява чрез Business API, така че не се равнява на политика на напълно отворени врати. Таксите все още се прилагат, което означава, че по-малките конкуренти може да продължат да се сблъскват с практически недостатъци дори след отстъпката.
Какво означава за xAI калифорнийският закон за разкриване на данни за обучение по изкуствен интелект?
Отказът на съда да блокира закона означава, че xAI сега трябва да се справя с допълнителни изисквания за прозрачност относно данните за обучение. Това е важно, защото разработчиците на модели често се опитват да избегнат подробно разкриване, особено когато източникът на данни е чувствителен или оспорван. На практика данните за обучение се превръщат в активен въпрос за съответствие, вместо да останат предмет на дебат относно нормите за изследване или риска от авторски права.
Какъв е по-важният извод от новините за индустрията за изкуствен интелект тази седмица?
Общата нишка е, че изкуственият интелект се оформя не толкова от пускането на продукти, колкото от управлението, инфраструктурата и регулациите. Партньорствата в областта на отбраната създават вътрешни конфликти, разширяването на изчислителните мощности се оказва скъпо и динамично, а регулаторите оказват по-силен натиск върху достъпа и разкриването на информация. В OpenAI, Anthropic, Meta и xAI, статията посочва, че индустрията е принудена да направи компромисите си по-видими.