🦞 Основателят на OpenClaw, Щайнбергер, се присъединява към OpenAI, бот с отворен код става фондация ↗
Питър Щайнбергер се насочва към OpenAI, за да промотира „лични агенти“, докато самият OpenClaw е паркиран във фондация, така че да остане с отворен код (и поддържан). Това разделение е... някак умно - наемете разработчика, проектът да остане публичен.
Представянето на OpenClaw е освежаващо практично: сортиране на имейли, документи за застраховки, регистрация за полети, досадните задачи за администрация на живота. Приложението е широко разпространено и в GitHub, а тази популярност е породила опасения за сигурността, особено ако хората го използват небрежно.
🪖 Пентагонът е „отегчен“ от съпротивата на Anthropic срещу използването на модела на изкуствения интелект на Claude от военните и може да прекрати връзките си, според доклад ↗
Основният спор: Пентагонът иска широк достъп за „всички законни цели“, а Anthropic все още се опитва да поддържа строги ограничения около напълно автономните оръжия и масовото наблюдение. Това е вид несъгласие, което звучи философски, докато някой не каже: „Може би ще ви сменим“
Един подценяван недостатък - длъжностните лица не искат моделът внезапно да блокира работните процеси по средата на процеса и не искат да преговарят за крайни случаи завинаги (справедливо... но и ужасно). Тук има истинско напрежение от типа „кой държи ключовете“ и то не е едва доловимо.
🧠 Стартъп изгражда модел за прогнозиране на човешкото поведение ↗
Simile привлече финансиране от 100 милиона долара, за да изгради модел с „ограничено обучение“, насочен към предвиждане на това, което хората биха могли да направят – включително, много конкретно, предвиждане на вероятни въпроси в неща като обявяване на приходите. Тясна цел, голяма амбиция, леко зловеща комбинация.
Подходът се основава на интервюта с реални хора плюс данни от поведенчески изследвания, след което се провеждат симулации с агенти с изкуствен интелект, предназначени да отразяват реалните предпочитания. Все едно се прави метеорологичен модел за човешки решения... което звучи невъзможно, докато не се окаже, че не е така.
🧑⚖️ Експертиза: Белият дом оказва натиск върху законодателя от Юта да отхвърли законопроекта за прозрачност на ИИ ↗
Натискът за прозрачност в областта на изкуствения интелект на щатско ниво в Юта е обект на директни критики от Белия дом, като служители настояват спонсора на законопроекта да не го предлага. Формулировката на законопроекта е изцяло насочена към прозрачност и безопасност на децата - трудно е да се спори с това само от гледна точка на контекста.
Но по-голямата битка е юрисдикционна: кой определя правилата, щатите или федералното правителство. И да, това е ръмжене - като двама души, хващащи един и същ волан и настояващи, че те са по-спокойните.
🎬 ByteDance обещава да предотврати неоторизирано използване на IP адреси във видео инструмент с изкуствен интелект след заплаха от Disney ↗
Disney изпрати заповед за прекратяване и преустановяване на използването на видео генератора с изкуствен интелект на ByteDance, а ByteDance заяви, че засилва предпазните мерки за предотвратяване на неоторизирано използване на интелектуална собственост и подобие. Оплакването - както се твърди - е, че инструментът може да изписва познати герои от франчайза, сякаш са просто... стикери за обществено достояние.
Това е сблъсъкът, който всички очакваха: инструментите за вирусно видео с изкуствен интелект се развиват бързо, студиата водят съдебни спорове, а „ще добавим предпазни мерки“ се превръща в езика на извинението по подразбиране. В обратна посока, технологията изглежда като магия - а правната страна изглежда като гравитация.
ЧЗВ
Какво означава, че основателят на OpenClaw се е присъединил към OpenAI, докато OpenClaw се е преместил във фондация?
Това сигнализира за разделение между човека, който изгражда „лични агенти“, и проекта, който остава публично управляван. Присъединяването на Щайнбергер към OpenAI предполага, че ще се концентрира върху развитието на продукти, подобни на агенти, там. Поставянето на OpenClaw във фондация има за цел да го запази с отворен код и устойчиво поддържан. На практика ходът има за цел да запази доверието на общността, докато разработчикът отива там, където са ресурсите.
Защо AI агентите в стил OpenClaw са фокусирани върху задачи като имейл и документи?
Тъй като работата по „административни въпроси“ е повтаряща се, базирана на правила и отнемаща време, това я прави практическа цел за автоматизация. Примерите тук - сортиране на имейли, документи за застраховки и регистрация за полети - са тесни задачи с ясни критерии за успех. Този фокус може да накара агентите да се чувстват ценни по-рано от по-отворените асистенти. Той също така подчертава защо внимателният контрол на достъпа е от значение, когато агентите докосват лични акаунти.
Как можете да внедрите AI агент с отворен код като OpenClaw, без да създавате проблеми със сигурността?
Отнасяйте се към него като към софтуер, който може да вижда чувствителни данни, а не като към играчка-скрипт. Често срещан подход е да се заключат идентификационните данни, да се ограничат разрешенията до необходимия минимум и да се водят регистрационни файлове и одитни следи. Стартирайте го в ограничена среда и го отделете от системи с висока стойност. Много от опасенията за сигурността произтичат от небрежно внедряване, особено когато хората излагат крайни точки или токени без силни защитни мерки.
Защо Пентагонът е недоволен от ограниченията на Anthropic върху военната употреба на Claude?
Спорът е съсредоточен върху обхвата и контрола: Пентагонът иска широк достъп за „всички законни цели“, докато Anthropic е описана като система, поддържаща строги ограничения около напълно автономните оръжия и масовото наблюдение. Длъжностните лица също така не искат моделите да блокират работните процеси по средата на процеса или да изискват безкрайни преговори за крайни случаи. Това напрежение е по-малко абстрактно, отколкото звучи - става въпрос за това кой решава какво може да прави моделът в реални операции.
Как стартиращите компании се опитват да предскажат човешкото поведение с изкуствен интелект и защо това изглежда противоречиво?
Примерът тук, Simile, следва модел на „ограничено обучение“, насочен към прогнозиране на това, което хората биха могли да направят, включително предвиждане на вероятни въпроси в контексти като обсъждане на приходите. Описаният подход съчетава интервюта с данни от поведенчески изследвания и симулации, използващи агенти с изкуствен интелект, предназначени да отразяват реалните предпочитания. Това изглежда зловещо, защото измества изкуствения интелект от реагиране на хора към прогнозиране на тези предпочитания. Предизвикателството е да се запазят твърденията ограничени и да се избегне прекомерната самоувереност.
Какво се случва, когато видео инструментите с изкуствен интелект генерират защитени с авторски права герои, както в сблъсъка между ByteDance и Disney?
Докладваният модел е познат: студио издава заповед за прекратяване и въздържане, а платформата реагира чрез засилване на предпазните мерки, за да предотврати неоторизирано използване на интелектуална собственост или подобие. В много инструменти предпазните мерки означават по-строги филтри за съдържание, подобрено разпознаване на разпознаваеми герои и по-ясно прилагане на потребителските политики. Основният конфликт е скорост срещу отговорност - генерирането на вируси се движи бързо, а прилагането на правата действа като гравитацията. Очаквайте още от тези сблъсъци с разпространението на видео генераторите.