🧯 OpenAI наема нов ръководител на отдела за готовност, който да се опита да предвиди и смекчи вредите от изкуствения интелект ↗
OpenAI публикува позицията „Ръководител на отдела за готовност“ – по същество човекът, натоварен със задачата да измисли най-лошите правдоподобни приложения на граничните модели, след което да изгради предпазни мерки, които да издържат на натиск (не само вибрации и PDF файлове с политики).
Списъкът силно се фокусира върху моделирането на заплахите, оценките и смекчаването им като реален оперативен процес. Това е работа по безопасността, структурирана като софтуер за доставка - успокояващо на един дъх, леко смразяващо на следващия, защото подсказва, че рисковете вече са продуктово оформени.
🧑⚖️ Китай публикува проект на правила за регулиране на изкуствения интелект с човешко взаимодействие ↗
Китайският кибер регулатор разпространи проект на правила, насочени към услуги с изкуствен интелект, които симулират човешки личности и ангажират емоционално потребителите - бъбриви компаньонки, флиртуващи асистенти, цялата онази зона „ти истински ли си?“.
Една забележителна подробност: доставчиците ще трябва да предупреждават за прекомерна употреба и да се намесват, ако потребителите показват признаци на зависимост или пристрастяване. Необичайно ясно е посочено психологическия риск - сякаш някой е погледнал тенденцията за „приятел с изкуствен интелект“ и е решил, че не без колани.
🧩 Довиждане, GPT-5. Здравей, Куен ↗
Според Wired, Qwen печели сърцата не като е най-добрият звяр, а като е с отворено тегло и лесен за манипулиране - което на практика е това, което строителите продължават да избират. Това е „инструментът, който всъщност можеш да държиш“, а не този зад кадифено въже.
Статията очертава това като по-широка промяна: отворените модели, които се вписват удобно в продуктите (и се настройват вътрешно), могат да имат по-голямо значение от незначителните подобрения в класациите. Леко пикантно, може би малко нелюбезно към затворените лаборатории... но атмосферата е завладяваща.
🎁 Ограничения за използване на OpenAI и Anthropic с двоен AI в празничния буст за разработчици: Всичко, което трябва да знаете ↗
OpenAI и Anthropic временно увеличиха ограниченията за използване на своите инструменти, фокусирани върху кодирането, давайки на отделните абонати повече място за изпълнение на по-тежки работни процеси, без веднага да се налагат ограничения.
Mint отбелязва, че увеличението е насочено към опитни потребители, след което нещата се връщат към предишното ниво след края на промоционалния прозорец. Това е приятен момент „ето още енергия“ - а също и тихо напомняне, че капацитетът все още е ограничено, осезаемо ограничение.
💻 Съоснователят на Google DeepMind Шейн Лег установява „правилото за лаптопа“, за да определи дали изкуственият интелект може да замести работата ви ↗
Шейн Лег предложи директна евристика: ако дадена работа може да се извърши изцяло чрез лаптоп (екран, клавиатура, микрофон, камера и т.н.), това е видът когнитивна работа, в която напредналият изкуствен интелект може да работи все по-често.
Той също така се поколеба малко - отбелязвайки, че някои „изцяло онлайн“ проекти все още се основават на човешката връзка и личността. Така че да, правилото е строго... но не е гилотина, а по-скоро предупреждение за буря.