Новини за изкуствения интелект, 28 януари 2026 г

Обобщение на новините за изкуствения интелект: 28 януари 2026 г

🧬 DeepMind стартира AlphaGenome, за да открие генетични двигатели на заболяванията

DeepMind представи AlphaGenome, система с изкуствен интелект, насочена към предсказване на това как ДНК мутациите променят генната регулация - основно кога гените се включват, къде и колко силно. Тя може да сканира огромни участъци от ДНК наведнъж, включително обширните некодиращи региони, които често се усещат като биологична тъмна материя.

Идеята е доста директна: по-бързо идентифициране на това кои мутации наистина имат значение за неща като риска от рак и сложни наследствени заболявания. Ако работи както е рекламирано, изследователите ще прекарват по-малко време в предположения и повече време в тестване на правилните неща - което звучи очевидно, но е донякъде цялата игра.

🧑💼 Изкуственият интелект ще струва работни места, признава Лиз Кендъл

Министърът на технологиите на Обединеното кралство открито заяви, че внедряването на изкуствен интелект ще доведе до загуба на работни места - не с обичайната атмосфера от рода на „всичко ще бъде наред, обещавам“. Тя посочи безпокойството около позициите за кандидатстване за висшисти в области като право и финанси и не се преструваше, че има някакъв точен брой, който някой може да предложи.

В същото време правителството насочва усилията си към адаптация: сериозен тласък за обучение на милиони работници в основни умения, свързани с изкуствения интелект, с цел Великобритания да внедри изкуствения интелект по-бързо. Това е класическото напрежение - да, работните места изчезват, да, работни места се появяват, не, няма да е гладко по средата.

🗞️ Великобритания настоява Google да позволи на сайтовете да се откажат от AI Overviews

Британските регулатори на конкуренцията предложиха промени, които биха позволили на издателите да се откажат от използването на тяхното съдържание за прегледите на изкуствения интелект на Google - или за обучение на самостоятелни модели на изкуствен интелект - без да бъдат наказвани в нормалните класации в търсенето. Това „без да бъдат наказвани“ върши голяма работа тук.

Идеята е да се пребалансира силата, тъй като обобщенията на изкуствения интелект променят начина, по който хората кликват (или не кликват). Отговорът на Google беше основно: поведението при търсене се променя, обмисляме повече контроли, но не разделяйте продукта на неловко фрагментирана версия на самия него... което е честно, но и удобно.

🛡️ Защита на данните ви, когато агент с изкуствен интелект кликне върху връзка

OpenAI подробно описа специфичен риск за сигурността на агентите: извличане на данни, базирано на URL адреси - при което хакер подвежда изкуствен интелект да зареди URL адрес, който тихомълком вгражда лична информация в низа на заявката. Дори ако моделът никога не „казва“ тайната, самата заявка може да я изтече. Гадно и обезоръжаващо нискотехнологично.

Тяхното смекчаване е просто правило с остри ръбове: агентите трябва автоматично да извличат само URL адреси, които вече са публични и за които е известно, че съществуват чрез независим уеб индекс. Ако дадена връзка не е потвърдена като публична, системата трябва да забави и да върне контрола на потребителя с предупреждения - умишлено триене, но от добър вид.

🇪🇺 Следващата глава за ИИ в ЕС

OpenAI публикува план, фокусиран върху ЕС, който очертава проблема с „излишните възможности“ - моделите могат да правят повече, отколкото хората и бизнесите в момента използват, и тази разлика рискува неравномерни печалби в различните страни. Все едно да притежавате състезателна кола и да я карате само до магазина на ъгъла... само че магазинът на ъгъла е цялата ви икономика.

Наред с реториката, има и конкретни елементи: програма, целяща да обучи хиляди европейски малки и средни предприятия в умения за изкуствен интелект, безвъзмездна помощ, обвързана с изследвания за безопасността и благосъстоянието на младежите, и разширена позиция за „работа с правителствата“. Това е отчасти политически меморандум, отчасти кампания за приемане - и да, те се размиват.

🔐 Рискът от изкуствен интелект среща киберуправлението: Проект на профил на кибер изкуствения интелект на NIST

Нов проект на профил от NIST (чрез анализ от статия на адвокатска кантора) се фокусира върху това как организациите трябва да включат изкуствения интелект в кибер управлението - както за осигуряване на самите системи с изкуствен интелект, така и за използване на изкуствен интелект за подобряване на киберзащитата. Доброволно на хартия, но „доброволността“ има свойството да се превърне в очакване с течение на времето.

Проектните групи работят по теми като осигуряване на AI компоненти и внедряване на защита, базирана на AI - включително съображения за веригата за доставки и автоматизация, подобна на агенти, в работните процеси за реагиране. Идеята е: третирайте AI едновременно като нова повърхност за атака и като нов набор от инструменти и не се преструвайте, че те се неутрализират.

ЧЗВ

Какво представлява AlphaGenome на DeepMind и какъв проблем се опитва да реши?

AlphaGenome е система с изкуствен интелект, за която DeepMind твърди, че може да предскаже как ДНК мутациите влияят върху генната регулация - кога гените се включват, къде се случва това и колко силно. Тя е създадена да сканира много големи участъци от ДНК наведнъж, включително некодиращите региони, които са известни с това, че са трудни за интерпретиране. Целта е да помогне на изследователите да установят кои мутации е най-вероятно да предизвикат заболявания, така че лабораторните тестове да могат да се концентрират върху най-обещаващите насоки.

Как AlphaGenome би могъл да помогне на изследователите да открият генетични двигатели на заболяванията по-бързо?

В много генетични работни процеси, проблемът идва от свиването на огромни списъци с варианти до малкото, които правдоподобно променят генната активност. Обещанието на AlphaGenome е да намали тези догадки, като прогнозира как специфични мутации биха могли да променят регулацията в дълги ДНК последователности. Ако тези прогнози се потвърдят, екипите могат да приоритизират експериментите около вариантите, които най-вероятно са свързани с риск от рак или сложни наследствени заболявания, като по този начин прекарват по-малко време в безизходици.

Ще струва ли внедряването на изкуствен интелект наистина работни места във Великобритания и кои позиции са най-застрашени?

Министърът на технологиите на Обединеното кралство, Лиз Кендъл, заяви, че приемането на изкуствения интелект ще доведе до загуба на работни места и подчерта безпокойството около позициите за завършване на висше образование. Тя посочи по-специално области като правото и финансите, където задачите в началото на кариерата може да са по-автоматизируеми. В същото време правителството набляга на адаптацията чрез мащабно обучение по основни умения за работа с изкуствен интелект, признавайки, че преходът може да се окаже неравномерен, дори ако се появят нови позиции.

Могат ли британските издатели да се откажат от прегледите на изкуствения интелект на Google, без да губят позиции в търсачките?

Британските регулатори на конкуренцията предложиха промени, които биха позволили на издателите да се откажат от използването на тяхното съдържание за прегледите на изкуствения интелект на Google - или за обучение на самостоятелни модели на изкуствен интелект - без да бъдат санкционирани в стандартните класации за търсене. Целта е да се пребалансира силата, тъй като обобщенията на изкуствения интелект променят поведението при кликване. Google сигнализира, че обмисля повече контрол, като същевременно предупреждава за фрагментирано търсене.

Как може агент с изкуствен интелект да изтече лични данни само като кликне върху линк?

OpenAI описва риск от изтичане на данни, базиран на URL адрес, при който атакуващ подканва агент с изкуствен интелект да извлече връзка, която дискретно вгражда чувствителна информация в низа на заявката. Дори ако моделът никога не повтаря тайната в изхода си, самата заявка може да я предаде. Често срещано смекчаване е добавянето на „умишлено триене“, като предупреждения и изискване за потвърждение от потребителя, когато дадена връзка не е независимо проверена като публична.

Какъв е проектът на NIST за кибер-AI и как той променя кибер управлението?

Проект на профил на NIST (обсъден чрез правен анализ) разглежда ИИ едновременно като нещо, което трябва да се защити, и като нещо, което да се използва в киберзащитата. Той групира работата по теми като осигуряване на компоненти на ИИ, справяне с рисковете във веригата за доставки и внедряване на защити, базирани на ИИ - включително по-автоматизирани, подобни на агенти работни процеси за реагиране. Въпреки че са доброволни на име, подобни рамки често се превръщат в де факто очаквания, подтиквайки организациите официално да включат ИИ в управлението и контрола.

Новини за изкуствения интелект от вчерашния ден: 27 януари 2026 г

Намерете най-новия изкуствен интелект в официалния магазин за асистенти с изкуствен интелект

За нас

Обратно към блога