🏗️ САЩ тласкат компаниите към нов „компактен“ център за данни с изкуствен интелект, съобщава Politico ↗
Според съобщенията, САЩ се опитват да накарат големи фирми да подпишат нов „споразумение“ за центрове за данни с изкуствен интелект - по същество пакет от ангажименти за това как трябва да се управляват тези огромни изчислителни мощности.
Детайлите все още са малко мъгливи (класика), но посоката изглежда позната: стандартизиране на очакванията относно енергията, сигурността и евентуално и отчетността - учтива версия на политиката на „моля, не позволявайте това да се превърне в хаос“
🎬 Autodesk съди Google заради софтуер за създаване на филми, задвижван от изкуствен интелект ↗
Autodesk съди Google заради името „Flow“, твърдейки, че вече използва „Flow“ за софтуер за производство и управление на визуални ефекти - и инструментът за създаване на филми с изкуствен интелект на Google е пристигнал със същата марка.
По-острият детайл е твърдението, че Google преди това е заявявала, че няма да комерсиализира името... след което въпреки това е продължила и е потърсила търговски марки. Разбира се, това е борба за търговски марки, но тя носи и енергията на дребномащабния спор „голяма платформа срещу специализиран производител на инструменти“.
🏥 Изкуственият интелект не е по-добър от други методи за пациенти, търсещи медицинска помощ, показва проучване ↗
Ново проучване установи, че използването на изкуствен интелект за медицински съвети на пациенти не превъзхожда други подходи - което не е изненадващо и е леко успокояващо, в зависимост от това колко усилено сте наблюдавали страничните инструменти за проверка на симптомите.
Това не означава, че изкуственият интелект е безполезен в здравеопазването - просто „попитайте бот“ не е автоматично надграждане спрямо съществуващите опции, особено когато точността и безопасността са основната цел.
🩺 Приложения и ботове, задвижвани от изкуствен интелект, нахлуват в медицината. Лекарите имат въпроси. ↗
Разследване разглежда как приложенията и чатботовете с изкуствен интелект в здравеопазването навлизат в клиничните пространства - понякога по-бързо, отколкото насоките, надзорът или обикновените доказателства могат да се справят.
Лекарите изразяват опасения относно надеждността, вредата за пациентите и кой е отговорен, когато бот дава съвети, които звучат уверено, но погрешно... като сателитна навигация, която настоява да шофирате в езеро, освен ако не използвате лекарства.
📈 Главният изпълнителен директор на OpenAI казва, че ChatGPT отново е с над 10% месечен растеж, съобщава CNBC ↗
Според съобщенията, главният изпълнителен директор на OpenAI е заявил, че ChatGPT се е върнал към над 10% месечен растеж - което е голяма работа, ако приемем, че фазата „всички вече са го опитали“ е достигнала своя връх.
Това предполага, че или все още има прилив на нови потребители, или съществуващите потребители намират още причини да останат - или и двете. Така или иначе, продуктът се държи по-малко като прищявка и по-скоро като инфраструктура... или поне така изглежда.
ЧЗВ
Какъв е предложеният „компакт“ за центрове за данни с изкуствен интелект, който САЩ налагат?
Описва се като пакет от ангажименти, които големите фирми биха се съгласили да поемат при изграждането или експлоатацията на големи центрове за данни с изкуствен интелект. Целта е да се стандартизират очакванията, така че тези мащабни изчислителни проекти да не се разпръскват или да не се различават в различните компании. Въпреки че спецификите все още звучат неясни, акцентът сякаш е върху практическата област: потребление на енергия, сигурност и евентуално някаква форма на отчитане.
Защо САЩ биха искали компаниите да подписват споразумение за центрове за данни с изкуствен интелект?
С договор може да се установят споделени базови очаквания, без да се принуждава законодателите да изготвят ново правило за всеки краен случай. С бързото разрастване на центровете за данни с изкуствен интелект, политиците често се тревожат за въздействието върху мрежата, рисковете за сигурността и оперативната прозрачност. Често срещана стратегия е най-големите играчи да се обединят рано, така че добрите практики да се разпространяват по-бързо и отчетността да се проследява по-лесно, ако възникнат проблеми.
Какви видове ангажименти биха могли да бъдат включени в споразумение за център за данни с изкуствен интелект?
Въз основа на това, което е било предложено, ангажиментите биха могли да обхващат енергийно планиране (как се доставя и управлява енергията), мерки за сигурност (физическа и кибер) и някаква форма на отчитане или разкриване на информация. В много тръбопроводи отчитането се превръща в „олекоприложим“ слой, който прави стандартите четливи и измерими. Ако споразумението е доброволно, тези ангажименти могат да бъдат формулирани като насоки, които по-късно помагат за оформянето на регулациите.
Какво представлява делото относно инструмента за създаване на филми с изкуствен интелект на Google, наречен „Flow“?
Autodesk съди Google заради името „Flow“, твърдейки, че Autodesk вече използва „Flow“ за софтуер за производство и управление на визуални ефекти. Спорът е формулиран като конфликт на търговска марка и марка, заедно с твърдението, че Google преди това е заявявала, че няма да комерсиализира името, но по-късно въпреки това е предприела действия за защита на търговските марки. Тези дела често са свързани с приоритета на марката и вероятността от объркване.
Какво означава, че изкуственият интелект не е бил по-добър от други методи за медицински съвети за пациенти?
Това предполага, че „попитай бот“ не е автоматично по-точно или по-безопасно от съществуващите начини, по които пациентите търсят насоки. Това може да ви се стори успокояващо, ако сте загрижени за прекалено самоуверените отговори от проверяващи симптоми или чатботове. Това не изключва потенциалната стойност на изкуствения интелект в здравеопазването, но подчертава необходимостта от доказателства, надзор и внимателна интеграция, когато грешките могат да причинят вреда.
Защо лекарите са загрижени за здравните приложения и чатботове, задвижвани от изкуствен интелект?
Лекарите се тревожат за надеждността, вредата за пациента и кой е отговорен, когато даден инструмент предоставя уверени, но неправилни съвети. Проблемът не е само в точността; той е и в това как пациентите интерпретират резултатите и дали системата подтиква хората към опасно самолечение. В клинични условия неясната отговорност може да се превърне в основен риск: пациентите може да се доверяват на инструмента, клиницистите може да не го контролират, а насоките може да изостават с внедряването.