🧠 Nvidia инвестира 4 милиарда долара във фотоника, за да ускори чиповете за центрове за данни с изкуствен интелект ↗
Nvidia заяви, че ще инвестира по 2 милиарда долара в Lumentum и Coherent - и двете големи компании във фотониката - в опит да поддържа хардуера за центрове за данни с предни позиции в сферата на „по-бързите изводи и по-голямата честотна лента“.
Идеята е проста: ако можете да пренасяте данни със светлина (фотоника), вместо само с електрически сигнали, можете да извлечете повече производителност от целия AI стек. Не е бляскаво, но именно водопроводната инсталация решава кой печели.
🛡️ OpenAI поставя „червени линии“ за внедряването на изкуствен интелект в Пентагона ↗
OpenAI определи ясни „забранени“ зони за военната си работа - без масово вътрешно наблюдение, без насочване на автономни оръжия и без автоматизирани решения с високи залози, като например системи за „социален кредит“.
Те също така казват, че внедряването е само в облака (не в периферията), запазва стека за безопасност на OpenAI на място и включва проверен персонал на OpenAI. Това звучи малко като „доверете ни се и ето текста на договора“ - което, честно казано, е по-добре от гаранциите само за доверие.
🏛️ Законодателите във Вашингтон настояват за предпазни мерки, свързани с изкуствен интелект, за чатботове и откриване на съдържание ↗
Законодателите в щата Вашингтон предлагат законопроекти, насочени към две точки на натиск: чатботове (особено за непълнолетни) и медии, генерирани от изкуствен интелект, които стават все по-трудни за забелязване.
Едно предложение би изисквало чатботовете редовно да напомнят на потребителите, че разговарят с изкуствен интелект, плюс да добавят откриване на суицидни мисли и други мерки за безопасност. Друго би настоявало за разкриване на информация като вградени водни знаци в генерирани или променени от изкуствен интелект изображения, аудио и видео - лесно на теория, сложно на практика.
⚡ Обединеното кралство отправя покана за представяне на доказателства относно енергийните набори от данни за изкуствен интелект ↗
Правителството на Обединеното кралство откри покана за представяне на доказателства, фокусирани върху набори от данни, свързани с енергетиката, където по-добрият достъп би могъл да помогне на разработчиците на изкуствен интелект да подобрят декарбонизацията, енергийната сигурност или достъпността.
Това е изрично формулирано като стъпка за събиране на доказателства (не обещана промяна в политиката) и е отражение на реалността: някои данни не могат да бъдат споделяни, така че синтетичните данни или подходите, базирани на разрешения, може да са пътят. Достъпът до данни е новата битка „кой притежава картата“, очевидно.
🤝 TechCrunch: Компаниите и правителствата, занимаващи се с изкуствен интелект, все още нямат използваем наръчник ↗
TechCrunch се задълбочи в неловката пропаст между „лабораториите с изкуствен интелект се превръщат в национална инфраструктура“ и „никой не се е съгласил първо с правилата“. Статията подчертава как обществената реакция е склонна да се фиксира върху наблюдението и автоматизираното убиване - двата кошмара, които никога не напускат стаята.
Теорията е следната: лабораториите продължават да се опитват да налагат политика на избраните лидери... но те са и тези, които доставят инструментите, така че това укриване работи само за определен период от време. Все едно да настояваш, че не си отговорен за огъня, докато активно продаваш кибрит - или поне така изглежда.
ЧЗВ
Защо Nvidia инвестира милиарди във фотоника за чипове за центрове за данни с изкуствен интелект?
Nvidia залага на това, че фотониката може да премества данни между центровете за данни по-бързо, с по-голяма честотна лента, отколкото чисто електрическите връзки. Предпоставката е, че по-добрата „водопроводна връзка“ между чиповете, стелажите и системите може да повиши цялостната производителност на изкуствения интелект, особено с мащабирането на натоварването от инференциални процеси. Влагането на сериозен капитал в основните играчи във фотониката сигнализира, че това се превръща в стратегическа инфраструктура, а не в нишово допълнение.
Как фотониката всъщност ускорява системите с изкуствен интелект в сравнение с електрическите връзки?
Фотониката използва светлина за предаване на данни, което може да облекчи затрудненията, когато системите трябва да прехвърлят огромни обеми информация. В много AI стекове производителността не е само свързана с изчислителния чип, а и с това колко бързо данните могат да се движат между компонентите. Често срещан модел са оптичните връзки за високопроизводителни връзки, като същевременно електрическите сигнали се запазват там, където са по-прости или по-евтини.
Какво означава на практика „по-бърз извод и по-голяма честотна лента“ за центровете за данни с изкуствен интелект?
Това показва промяна, при която ефективното обслужване на модели е толкова важно, колкото и обучението им. По-бързият извод означава бързо получаване на отговори при голямо търсене, а по-голямата честотна лента означава, че ускорителите могат да бъдат захранвани без чакане. В много конвейери ограниченията на мрежата и взаимовръзките се превръщат в пречка, така че подобряването на движението на данни може да отключи значителни ползи, дори ако изчислителният силиций вече е силен.
Какви са „червените линии“ на OpenAI за внедряването на изкуствен интелект в Пентагона?
OpenAI описва изрично забранени зони, като например масово вътрешно наблюдение, насочване на автономни оръжия и автоматизирани решения с висок залог, подобни на системи за „социален кредит“. Те също така очертават внедряването като само в облака, като мерките за безопасност остават в сила, а участващият персонал е проверен. Обикновено тези ограничения са предназначени да стеснят случаите на употреба и да намалят риска от злоупотреба, като същевременно позволяват ограничени правителствени приложения.
Какви предпазни мерки, свързани с изкуствен интелект, предлагат законодателите на Вашингтон за чатботове и медии, генерирани от изкуствен интелект?
Описаните предложения се фокусират върху две области: прозрачност и безопасност на чатботовете и разкриване на информация за генерирано или променено от изкуствен интелект съдържание. Една концепция изисква чатботовете редовно да напомнят на потребителите, че взаимодействат с изкуствен интелект, и да включват функции за безопасност, като например откриване на суицидни мисли. Друга е насочена към механизми за разкриване на информация, като например вградени водни знаци в синтетични медии, което може да е лесно на теория, но по-трудно за изпълнение.
Как могат наборите от данни за енергийните технологии в Обединеното кралство за изкуствен интелект да повлияят на декарбонизацията и енергийната сигурност?
Призивът на Обединеното кралство за предоставяне на доказателства е формулиран като стъпка за идентифициране на области, в които по-добрият достъп до набори от данни, свързани с енергията, би могъл да помогне на изкуствения интелект да подобри резултати като декарбонизация, сигурност или достъпност. На практика много полезни набори от данни имат ограничения за споделяне, така че може да са необходими подходи като синтетични данни, достъп, базиран на разрешения, или контролирана среда. Това често се превръща във въпрос от типа „кой има достъп до картата“ за иновациите и управлението.