Новини за изкуствения интелект, 22 февруари 2026 г

Обобщение на новините за изкуствения интелект: 22 февруари 2026 г

🏫 В някои училища чатботовете разпитват учениците за работата им. Но революцията на изкуствения интелект тревожи учителите

Някои австралийски училища изпробват по-рязък подход към „покажете как работите“ - учениците завършват заданието, след което чатбот с изкуствен интелект ги разпитва, за да провери дали разбират какво са предали. Това е основно устен изпит, но с машина, която пита „какво имате предвид под това?“, докато не започнете да се гърчите.

По-голямото безпокойство е неравномерното внедряване: отраслов доклад предупреждава, че бързо внедряващите технологии биха могли да се развихрят бързо, докато други изостават, създавайки двускоростна образователна система. Учителите също така продължават да повдигат познатите - и все още сериозни - опасения: поверителността, благополучието и как да предотвратят „помощта от изкуствения интелект“ да се превърне в „изкуственият интелект го направи“.

👮 Столичната полиция използва инструменти с изкуствен интелект, предоставени от Palantir, за да сигнализира за неправомерно поведение на служителите

Лондонската метрополия използва изкуствен интелект, предоставен от Palantir, за да анализира вътрешните модели на работната сила - болнични, отсъствия, извънреден труд - търсейки сигнали, които биха могли да корелират с проблеми с професионалните стандарти. Проектът е представен като пилотен проект с ограничено време и, което е важно, метрополията казва, че хората все още вземат действителните решения... но това „все още“ върши много работа.

Полицейската федерация не е във възторг, наричайки го „автоматизирано подозрение“ и предупреждавайки за непрозрачни инструменти, които погрешно интерпретират стреса и работното натоварване като нередности. Това е един от онези моменти, в които технологията звучи спретнато на слайд, след което си представяте как се усеща на място и тя рязко се усеща.

🛡️ Британският регулатор за защита на личните данни предупреждава за изображения, генерирани от изкуствен интелект, в съвместно изявление

Британската ICO се присъедини към други регулаторни органи в съвместно предупреждение относно генерирани от изкуствен интелект изображения, които изобразяват разпознаваеми хора без съгласие - основно: не третирайте „това е синтетично“ като магическо извинение. Посланието е да се изградят предпазни мерки рано и да се ангажират регулаторните органи, вместо да се прави класическият технологичен ход първо да се изпрати съобщение, а после да се извини.

Те също така подчертават повишените рискове за децата, което е логично, защото щом това нещо се разпространи, е все едно да се опитваш да събереш брокат обратно в буркан. Идеята е, че поверителността и достойнството са предназначени да оцелеят в модния цикъл, или поне така изглежда.

🪖 Министърът на отбраната на САЩ Хегсет призовава изпълнителния директор на Anthropic за трудни разговори относно военното използване на Claude, съобщава Axios

Ройтерс съобщава, че министърът на отбраната на САЩ ще се срещне с главния изпълнителен директор на Anthropic за разговор, описан като по-конфронтационен, относно военната употреба на Claude. Според съобщенията, Пентагонът иска големите доставчици на изкуствен интелект да предоставят модели в класифицирани мрежи с по-малко ограничения - а Anthropic се съпротивлява на всяко разхлабване на предпазните мерки.

Подтекстът е като класическа дилема от типа „действай бързо, но... с ракети“. Ако страните не могат да се споразумеят за предпазните мерки, отношенията могат да се обтегнат или дори да се скъсат - но Anthropic също така сигнализира, че разговорите с правителството остават конструктивни, така че е напрегнато, но не и за пълен разрив (все още).

🧠 ChatGPT - Бележки за изданието

Бележките към изданието на OpenAI сочат към разширен контекстен прозорец за режим „Мислене“ - което означава, че можете да захранвате модела с повече текст и да поддържате по-дълги нишки свързани, без да се губят по-ранни подробности. Ако някога сте виждали модел да „забравя“ нещо, което буквално току-що сте казали (болка), това е насочено точно към това.

Това е много щуро подобрение, което тихо променя практичното: по-дълги документи, по-заплетени проекти, по-разтегливи изследователски сесии. Не е бляскаво, но е от онези промени във ВиК инсталацията, които изведнъж карат цялата къща да изглежда по-голяма.

ЧЗВ

Какво означава, когато училищата използват чатботове, за да „разпитват“ учениците за задачи?

В някои австралийски училища учениците изпълняват задание и след това преминават през дискусия с чатбот с изкуствен интелект, който проверява разсъжденията им. Това работи като устно изказване, като притиска учениците да обяснят какво са написали и защо. Целта е да се провери разбирането, а не само резултатът. То може също така да разкрие пропуски, когато ученикът не може да защити ключови твърдения.

Как биха могли чатботовете с изкуствен интелект в училищата да създадат „двускоростна“ образователна система?

В отраслов доклад се предупреждава, че бързо внедряващите училища биха могли да изпреварят, докато по-бавно развиващите се училища изостават още повече. Ако някои училища внедрят инструменти с изкуствен интелект за оценка на разбирането, подкрепа на обучението или възпиране на злоупотребата, те биха могли да повишат резултатите по-рано. Други може да нямат бюджет, персонален капацитет или яснота в политиката, за да внедрят сравними системи. Това неравномерно внедряване може да разшири съществуващите разлики в ресурсите и постиженията.

Как учителите се опитват да спрат „AI помощ“ да се превърне в „AI го направи“?

Често срещан подход е оценяването да се измести към процеса и обяснението, а не само към крайния продукт. Въпросите в стил чатбот, черновите, размислите или устните проверки могат да затруднят предаването на работа, която не разбирате. Учителите могат също така да поставят по-строги граници за приемлива помощ, като например брейнсторминг спрямо пълно пренаписване. Акцентът остава върху демонстрирането на разбиране, а не върху контролирането на всеки инструмент.

Какви проблеми с поверителността и благополучието възникват, когато изкуственият интелект се използва в класните стаи?

Учителите продължават да изразяват загриженост относно това какви данни за учениците се събират, къде се съхраняват и кой има достъп до тях. Съществуват и опасения за благополучието, ако учениците се чувстват постоянно наблюдавани или подложени на натиск от машинно задавани въпроси. Децата са специална рискова група, тъй като чувствителната информация може да се разпространи или да се запази в системите по неочаквани начини. Много училища се стремят да въведат предпазни мерки на ранен етап, вместо да се опитват да ги адаптират по-късно.

Как столичната полиция използва изкуствен интелект, предоставен от Palantir, за да сигнализира за потенциални нарушения на служителите?

Лондонската метрополитен полиция използва изкуствен интелект, предоставен от Palantir, за да анализира модели на работната сила, като например болнични, отсъствия и извънреден труд. Целта е да се забележат сигнали, които биха могли да корелират с проблеми с професионалните стандарти. Проектът е описан като пилотен проект с ограничено време, а от метрополитен полицията казват, че хората все още вземат решенията. Критиците твърдят, че инструментът може да се усеща като „автоматизирано подозрение“, ако възприема стреса като нередност.

Защо полицейските синдикати се притесняват от „автоматизирано подозрение“ от инструментите за надзор с изкуствен интелект?

Загрижеността на Полицейската федерация е, че непрозрачните модели могат да правят изводи за нарушения от модели, които имат доброкачествени обяснения. Пиковете в натовареността, здравословните проблеми и стресът могат да променят посещаемостта или извънредния труд, без да се предполага, че има нарушения. Ако логиката на инструмента не е прозрачна, за служителите става по-трудно да оспорват предупрежденията или за мениджърите да калибрират справедливи прагове. Дори при човешки решения, автоматизираните сигнали все още могат да оформят резултатите.

За какво предупреждава британската ICO относно генерираните от изкуствен интелект изображения на разпознаваеми хора?

Британският регулатор за защита на личните данни се присъедини към други регулаторни органи в предупреждението, че „синтетично“ не означава без последствия. Ако генерирано от изкуствен интелект изображение изобразява разпознаваемо лице без съгласие, все още важат рискове за поверителността и достойнството. Регулаторните органи наблягат на ранното изграждане на предпазни мерки и ангажирането с надзор, а не първо на „доставката“. Те също така сигнализират за повишени рискове за децата, където вредата може да се увеличи бързо, след като съдържанието се разпространи.

Какво стои зад съобщенията за натиск от страна на Пентагона върху Anthropic относно военното използване на Клод?

Ройтерс съобщава, че министърът на отбраната на САЩ ще се срещне с главния изпълнителен директор на Anthropic за по-тежки разговори относно военното използване на Claude. Според съобщенията, Пентагонът иска големите доставчици на изкуствен интелект да предоставят модели в класифицирани мрежи с по-малко ограничения. Anthropic се съпротивлява на по-хлабавите предпазни мерки, посочвайки сблъсък относно предпазни мерки. Отношенията звучат напрегнати, въпреки че и двете страни сигнализират, че разговорите остават конструктивни.

Какво се промени в бележките за изданието на ChatGPT относно дължината на контекста в режим „Мислене“?

Бележките към изданието на OpenAI сочат към разширен контекстен прозорец за режим „Мислене“, което позволява повече текст да се побере в една нишка. На практика това може да помогне с дълги документи, сложни проекти и многоетапни изследвания, където по-ранните детайли са важни. Това е по-скоро подобрение в стил „водопроводчик“, отколкото бляскава функция. Основното предимство е по-малко изпуснати детайли при по-дълги сесии.

Новини за изкуствения интелект от вчерашния ден: 21 февруари 2026 г

Намерете най-новия изкуствен интелект в официалния магазин за асистенти с изкуствен интелект

За нас

Обратно към блога