💰 Секвоя тихо скача в мега-кръга на Антропик ↗
Според съобщенията, Sequoia, която вече е обвързана с множество големи лаборатории за изкуствен интелект, се присъединява към гигантско увеличение на персонала в Anthropic. Това е от онези стъпки, които ще вдигнат нивото на разговорите за „конфликти, без конфликти“, независимо дали някой го признава или не.
Твърди се, че рундът ще включва и други тежки проверки, което ще избута Anthropic още по-навътре в тази лента на най-високо ниво с мега-оценка. Настроенията за балон остават. Това може би е и новата нормалност, дразнещо.
📢 ChatGPT започва да флиртува с реклами - този път наистина ↗
Твърди се, че OpenAI тества реклами за някои американски потребители на по-ниски тарифни нива, докато по-високоплатените ще останат без реклами. Обещанието е, че рекламите няма да влияят на отговорите - успокояващо на теория, дори когато рефлексът на доверие леко потрепва.
По-големият подтекст е прост: изводите са скъпи и само абонаментите може да не покриват всичко завинаги... или поне така изглежда. И все пак, първия път, когато видите „спонсорирано“ някъде близо до чатбот, нещо се променя в главата ви. Атмосферата се променя.
📚 Издателите се опитват да се възползват от делото на Google за обучение с изкуствен интелект ↗
Група издатели се опитва да се присъедини към съдебен иск, който обвинява Google в използване на защитени с авторски права произведения за обучение на своите системи с изкуствен интелект. Тази съдебна битка продължава да се разширява, като пукнатина в лед, която непрекъснато чувате, но не можете да я локализирате.
Ако съдът ги допусне, случаят може да се изостри около това какво трябва да означават „разрешение“ и „плащане“ за данните за обучение. Всеки иска прецедент - за предпочитане такъв, който е в негова полза, очевидно.
🕳️ Трик с „бързо инжектиране“ съобщава, че обърква Gemini чрез данни от срещи ↗
Изследователите описаха атака в стил „индиректно инжектиране на подкани“, при която злонамерени инструкции се скриват в нормално изглеждащо съдържание, след което асистент ги следва, когато потребителят попита нещо невинно. Без зловреден софтуер, без магия - само текст, превърнат в оръжие, зловещо елегантен и същевременно донякъде отвратителен.
Това е напомняне, че „LLM чете ненадежден текст“ не е сладка функция - това е цяла повърхност за заплахи. Като например да позволяваш на непознати да ти пъхат бележки в джобовете по цял ден, а след това да се правиш на изненадан, когато някоя от тях е капан.
🎮 Главният изпълнителен директор на Razer казва, че геймърите „вече харесват изкуствен интелект“ - те просто мразят етикета ↗
Лекцията на Razer на CES се фокусира върху изкуствения интелект като практичен инструмент за работни процеси в разработката на игри - QA, итерации и други подобни - плюс някои асистентски концепции, които изглеждат наполовина полезни, наполовина научнофантастични.
Те също така по същество признават проблема с брандирането: играчите не искат „AI помия“, но искат по-умни инструменти и по-плавни изживявания. Наречете го „помощ“ и хората кимат. Наречете го „AI“ и хората посягат към вили... понякога.
⚖️ Съдът определя правила за адвокати, използващи генеративен изкуствен интелект ↗
Съд публикува насоки, които по същество се свеждат до: разбира се, използвайте genAI - но работата все още е ваша. Не можете да възложите професионалната си преценка на генератор на текст и след това да се правите на шокирани, когато той уверено измисли нещо.
Интересното е, че разкриването на информация не се изисква, освен ако съдия не поиска - но посланието за отчетност е истинският гръбнак на това. Изкуственият интелект може да пише и подрежда... и също така да халюцинира като прекалено самоуверен стажант с усет към художествената литература.
ЧЗВ
Какво означава присъединяването на Sequoia към мегакрънда на Anthropic за инвестициите в изкуствен интелект и конфликтите?
Това предполага, че големите инвеститори може да продължат да подкрепят множество водещи лаборатории за изкуствен интелект едновременно, което предвидимо съживява дебата „конфликти, без конфликти“. Когато един и същ фонд е обвързан с няколко лаборатории, хората започват да разглеждат внимателно стимулите, достъпа и конкурентните предимства. Съобщеният мега-кръг също така подчертава тенденцията към огромни чекове и извисяващи се оценки, дори когато „вибрациите за балон“ все още висят във въздуха.
ChatGPT получава ли реклами на безплатни или по-евтини нива и ще повлияят ли те на отговорите?
В доклада се казва, че OpenAI тества реклами за някои американски потребители на по-ниски тарифни нива, докато по-високоплатените остават без реклами. Твърди се също, че рекламите няма да повлияят на отговорите, което звучи успокояващо на хартия, но все пак може да промени начина, по който хората възприемат доверието. Подтекстът е икономически: изводите са скъпи и абонаментите може да не покриват всичко завинаги.
Защо издателите се опитват да се присъединят към делото на Google за обучение с изкуствен интелект?
Група издатели се опитва да се присъедини към съдебен иск, в който се твърди, че Google е използвала защитени с авторски права произведения за обучение на системи с изкуствен интелект. Ако съдът ги допусне, делото може да се изостри около това как трябва да изглеждат „разрешението“ и „плащането“ за данните за обучение. Повече страни често означават по-голям натиск за ясен прецедент - особено относно това кой получава компенсация и при какви условия.
Какво е атака с „непряко незабавно инжектиране“ и защо е толкова важна в новините за изкуствения интелект?
Това е атака, при която злонамерени инструкции са скрити в нормално изглеждащо съдържание, а асистент ги следва по-късно, когато потребителят направи невинна заявка. Основният проблем е, че моделът чете ненадежден текст, превръщайки ежедневните документи и съобщения в потенциална повърхност за заплаха. Това е завладяващо, защото може да работи без традиционен зловреден софтуер - само с въоръжен език, вграден в съдържанието.
Защо геймърите не харесват етикета „AI“, но все пак искат инструменти с изкуствен интелект?
Главният изпълнителен директор на Razer твърди, че геймърите вече харесват практическите ползи - по-бързо осигуряване на качеството, по-гладка итерация и помощници в работния процес - но реагират негативно на брандирането. Проблемът често е „AI помия“ или съдържание, което изглежда неефективно и неавтентично. Преформулирането му като „помощ“ или полезна функция може да го накара да се усеща като инструмент, който подобрява изживяването, вместо да замества креативността.
Какво означават правилата на съда за адвокатите, използващи генеративен изкуствен интелект, и трябва ли те да ги разкриват?
Описаното ръководство е ясно: адвокатите могат да използват генеративен изкуствен интелект, но те остават отговорни за работата и не могат да възлагат професионалната си преценка на генератор на текст. Рискът е халюцинация - уверено измислени факти или цитати - така че проверката и отчетността остават на първо място. Съобщава се, че разкриването на информация не се изисква, освен ако съдия не поиска, но посланието все пак е: вие отговаряте за резултата.