Изкуственият интелект е навсякъде – тихо сортира, оценява и предлага. Това е удобно… докато не избута някои групи напред и не остави други назад. Ако сте се чудили какво е пристрастие на ИИ , защо се появява дори в изпипани модели и как да го намалите, без да влошите производителността, това ръководство е за вас.
Статии, които може да ви харесат след тази:
🔗 Какво означава GPT
Разбивка на името и произхода на GPT на разбираем английски език.
🔗 Какво е предсказуем изкуствен интелект
Как прогнозните модели прогнозират резултати от исторически и актуални данни.
🔗 Какво е изкуствен интелект с отворен код
Дефиниция, ключови предимства, предизвикателства, лицензи и примери за проекти.
🔗 Как да внедрите изкуствен интелект във вашия бизнес
Поетапна пътна карта, инструменти, работни процеси и основни елементи за управление на промените.
Бързо определение: какво е AI Bias?
Пристрастието към изкуствения интелект (ИИ) е когато резултатите от дадена ИИ система систематично облагодетелстват или поставят в неравностойно положение определени хора или групи. То често произтича от небалансирани данни, ограничен избор на измервания или по-широкия контекст, в който системата е изградена и използвана. Пристрастието не винаги е злонамерено, но може бързо да навреди, ако не бъде контролирано. [1]
Полезно разграничение: пристрастието е изкривяването при вземането на решения, докато дискриминацията е вредният ефект, който изкривяването може да произведе в света. Не винаги можете да премахнете всички пристрастия, но трябва да ги управлявате, за да не създават несправедливи резултати. [2]
Защо разбирането на предразсъдъците всъщност ви прави по-добри 💡
Странно схващане, нали? Но знанието какво е пристрастие към ИИ ви кара да:
-
По-добър в дизайна - ще забележите крехките предположения по-рано.
-
По-добро управление - ще документирате компромисите, вместо да ги отменяте.
-
По-добър в разговорите - с лидери, регулатори и засегнати хора.
Освен това, изучаването на езика на показателите и политиките за справедливост спестява време по-късно. Честно казано, това е като да си купите карта преди пътуване - несъвършена, но много по-добра от вибрации. [2]
Видове пристрастия към изкуствения интелект, които всъщност ще видите в дивата природа 🧭
Пристрастията се проявяват през целия жизнен цикъл на изкуствения интелект. Често срещани модели, с които екипите се сблъскват:
-
Отклонение при извадката на данни - някои групи са недостатъчно представени или липсват.
-
Пристрастие към етикетите - историческите етикети кодират предразсъдъци или шумни човешки преценки.
-
Пристрастия при измерване - показатели, които не отразяват това, което наистина цените.
-
Пристрастие при оценяване - тестовите набори пропускат определени популации или контексти.
-
Пристрастие при разполагане - добър лабораторен модел, използван в грешна обстановка.
-
Системни и човешки пристрастия - по-широки социални модели и екипни избори, които се отразяват и в технологиите.
Полезен ментален модел от организации по стандартизация групира пристрастията в човешки, технически и системни категории и препоръчва социално-техническо управление, а не само корекции на модела. [1]
Където пристрастията се промъкват в тръбопровода 🔍
-
Проблем с формулирането - дефинирайте целта твърде тясно и изключвате хората, на които продуктът трябва да служи.
-
Източник на данни - историческите данни често кодират минали неравенства.
-
Избор на функции - прокситата за чувствителни атрибути могат да пресъздадат чувствителни атрибути.
-
Обучението - целите се оптимизират за средна точност, а не за равнопоставеност.
-
Тестване - ако вашият набор от изключения е изкривен, вашите показатели също са.
-
Мониторинг - промените в потребителите или контекста могат да доведат до повторно възникване на проблеми.
Регулаторите наблягат на документирането на рисковете за справедливост през целия този жизнен цикъл, не само по време на адаптирането на модела. Това е упражнение, в което участват всички. [2]
Как да измерим справедливостта, без да се въртим в кръг? 📏
Няма един показател, който да ги управлява всички. Изберете въз основа на вашия случай на употреба и вредите, които искате да избегнете.
-
Демографски паритет - процентите на подбор трябва да са сходни в различните групи. Подходящо за въпроси, свързани с разпределението, но може да противоречи на целите за точност. [3]
-
Изравнени коефициенти - процентите на грешки, като фалшиво положителни и истински положителни резултати, трябва да са сходни. Полезно, когато цената на грешките се различава в различните групи. [3]
-
Калибриране - за един и същ резултат, резултатите трябва да са еднакво вероятни за всички групи. Полезно, когато резултатите са в основата на човешките решения. [3]
Инструментариумите правят това практично, като изчисляват пропуски, графики и табла, така че можете да спрете да гадаете. [3]
Практични начини за намаляване на пристрастията, които действително работят 🛠️
Мислете за многослойни смекчаващи мерки, а не за едно-единствено решение:
-
Одити и обогатяване на данни - идентифициране на пропуски в обхвата, събиране на по-безопасни данни, където е законно, вземане на проби от документи.
-
Претегляване и повторно семплиране - коригирайте разпределението на обучението, за да намалите асиметрията.
-
Ограничения по време на обработка - добавете цели за справедливост към целта, така че моделът да учи компромиси директно.
-
Състезателно намаляване на отклоненията - обучете модела така, че чувствителните атрибути да не са предвидими от вътрешните представяния.
-
Последваща обработка - калибриране на праговете за вземане на решения за всяка група, когато е уместно и законосъобразно.
-
Проверки „човек в цикъла“ – сдвоете модели с обясними обобщения и пътища за ескалация.
Библиотеки с отворен код като AIF360 и Fairlearn предоставят както показатели, така и алгоритми за смекчаване на риска. Те не са магически, но ще ви дадат систематична отправна точка. [5][3]
Доказателство от реалния свят, че предразсъдъците имат значение 📸💳🏥
-
Анализ на лице - широко цитирани изследвания документират големи разлики в точността между групите по пол и тип кожа в търговските системи, което тласка областта към по-добри практики за оценка. [4]
-
Решения с висок залог (кредит, наемане, жилище) - дори без намерение, предубедените резултати могат да противоречат на задълженията за справедливост и борба с дискриминацията. В превод: вие носите отговорност за последиците, не само за кода. [2]
Бърз анекдот от практиката: при анонимизиран одит на наемане на персонал, екип откри пропуски в запомнянето на кандидати за жени на технически позиции. Прости стъпки - по-добре стратифицирани разделения, преглед на характеристиките и определяне на прагове за всяка група - затвориха по-голямата част от пропуските с малък компромис с точността. Ключът не беше в един трик; това беше повтаряем цикъл измерване-смекчаване-мониторинг.
Политика, закон и управление: как изглежда „доброто“ 🧾
Не е нужно да сте адвокат, но е необходимо да проектирате с цел справедливост и обяснимост:
-
Принципи на справедливост - ценности, ориентирани към човека, прозрачност и недискриминация през целия жизнен цикъл. [1]
-
Защита на данните и равенство - когато става въпрос за лични данни, очаквайте задължения, свързани със справедливост, ограничаване на целите и индивидуални права; може да се прилагат и секторни правила. Планирайте задълженията си предварително. [2]
-
Управление на риска - използвайте структурирани рамки за идентифициране, измерване и наблюдение на пристрастия като част от по-широки програми за управление на риска, свързан с ИИ. Запишете го. Прегледайте го. Повторете. [1]
Малко уточнение: документите не са просто бюрокрация; това е начинът, по който доказвате, че действително сте свършили работата, ако някой ви попита.
Сравнителна таблица: инструменти и рамки за овладяване на предразсъдъците към изкуствения интелект 🧰📊
| Инструмент или рамка | Най-добро за | Цена | Защо работи... донякъде |
|---|---|---|---|
| AIF360 | Специалисти по данни, които искат показатели + смекчаване на рисковете | Безплатно | Много алгоритми на едно място; бързо създаване на прототипи; помага за изготвяне на базови линии и сравняване на решения. [5] |
| Феърлиърн | Екипи, балансиращи точността с ограниченията за справедливост | Безплатно | Ясни API за оценка/смекчаване; полезни визуализации; лесни за обучение от scikit. [3] |
| NIST AI (SP 1270) | Риск, съответствие и лидерство | Безплатно | Споделен език за човешки/технически/системни пристрастия и управление на жизнения цикъл. [1] |
| Ръководство за ICO | Екипи от Обединеното кралство, обработващи лични данни | Безплатно | Практически контролни списъци за рискове, свързани с справедливост/дискриминация, през целия жизнен цикъл на ИИ. [2] |
Всяко от тях ви помага да отговорите на въпроса какво представлява пристрастността на ИИ във вашия контекст, като ви предоставя структура, показатели и споделен речник.
Кратък, леко категоричен работен процес 🧪
-
Посочете вредата, която искате да избегнете - вреда при разпределението, неравенства в процента на грешки, вреда за достойнството и др.
-
Изберете метрика, съобразена с тази вреда - например, изравнени коефициенти, ако паритетът на грешките е от значение. [3]
-
Извършете базови линии с днешните данни и модел. Запазете отчет за справедливост.
-
Първо опитайте корекции с ниско триене - по-добро разделяне на данните, определяне на прагове или претегляване.
-
ескалирайте до ограничения в процес на обработка.
-
Преоценете върху групите с възражения, които представляват реални потребители.
-
Монитор в производството - случват се промени в дистрибуцията; таблата за управление също трябва да се използват.
-
Компромиси в документа - справедливостта е контекстуална, така че обяснете защо сте избрали паритет X пред паритет Y. [1][2]
Регулаторните органи и организациите по стандартизация продължават да наблягат на мисленето, основано на жизнения цикъл, с причина. То работи. [1]
Съвети за комуникация със заинтересованите страни 🗣️
-
Избягвайте обяснения, основани единствено на математика - първо покажете прости таблици и конкретни примери.
-
Използвайте разбираем език - кажете какво би могъл да направи моделът несправедливо и кой би могъл да бъде засегнат.
-
Повърхностни компромиси - ограниченията за справедливост могат да повлияят на точността; това не е грешка, ако намалява вредата.
-
Планирайте непредвидени ситуации - как да направите пауза или да се върнете назад, ако се появят проблеми.
-
Поканете контрол - външната проверка или обединяването в екип разкрива слепи петна. Никой не го харесва, но помага. [1][2]
ЧЗВ: какво всъщност е пристрастност към ИИ? ❓
Не са ли просто лошите данни пристрастията?
Не само. Данните са важни, но и изборът на моделиране, дизайнът на оценката, контекстът на внедряване и стимулите за екипа влияят върху резултатите. [1]
Мога ли да премахна напълно пристрастията?
Обикновено не. Целта е да управлявате пристрастията, така че да не причиняват несправедливи ефекти – мислете за намаляване и управление, а не за съвършенство. [2]
Кой показател за справедливост трябва да използвам?
Изберете въз основа на вида на вредата и правилата на домейна. Например, ако фалшивите положителни резултати вредят повече на група, фокусирайте се върху паритета на процента на грешки (изравнени коефициенти). [3]
Необходим ли е правен преглед?
Ако вашата система засяга възможностите или правата на хората, да. Правилата, ориентирани към потребителите и равенството, могат да се прилагат за алгоритмични решения и трябва да покажете работата си. [2]
Заключителни бележки: Твърде дълго, не прочетох 🧾✨
Ако някой ви попита какво е пристрастие към изкуствения интелект (ИИ) , ето лесния отговор: това е систематично изкривяване в резултатите от ИИ, което може да доведе до несправедливи ефекти в реалния свят. Диагностицирате го с подходящи за контекста показатели, смекчавате го с многопластови техники и го управлявате през целия му жизнен цикъл. Това не е един-единствен бъг, който може да се смачка - това е въпрос, свързан с продукт, политика и хора, който изисква постоянен ритъм на измерване, документиране и смирение. Предполагам, че няма чаршаф... но има прилични контролни списъци, честни компромиси и по-добри навици. И да, няколко емоджита никога не са излишни. 🙂
Референции
-
Специална публикация на NIST 1270 - Към стандарт за идентифициране и управление на пристрастия в изкуствения интелект . Връзка
-
Служба на комисаря по информацията на Обединеното кралство - А какво ще кажете за справедливостта, предразсъдъците и дискриминацията? Връзка
-
Документация на Fairlearn - Общи показатели за справедливост (демографски паритет, изравнени коефициенти, калибриране). Връзка
-
Буоламвини, Дж. и Гебру, Т. (2018). Нюанси на пола: Междусекторни неравенства в точността при класификацията на пола в търговските обекти . FAT* / PMLR. Връзка
-
IBM Research - Представяне на AI Fairness 360 (AIF360) . Връзка