Кратък отговор: Базовите модели са големи, универсални модели на изкуствен интелект, обучени върху огромни, широки набори от данни, след което адаптирани към много задачи (писане, търсене, кодиране, изображения) чрез подкана, фина настройка, инструменти или извличане. Ако имате нужда от надеждни отговори, съчетайте ги със заземяване (като RAG), ясни ограничения и проверки, вместо да ги оставяте да импровизират.
Ключови изводи:
Определение : Един широко обучен базов модел, използван повторно в много задачи, а не по една задача на модел.
Адаптация : Използвайте подкана, фина настройка, LoRA/адаптери, RAG и инструменти за насочване на поведението.
Генеративно съответствие : Те захранват генерирането на текст, изображения, аудио, код и мултимодално съдържание.
Сигнали за качество : Приоритизиране на контролируемостта, по-малко халюцинации, мултимодални способности и ефикасно извеждане.
Контрол на риска : Планирайте халюцинации, пристрастия, изтичане на поверителност и незабавно инжектиране чрез управление и тестване.

Статии, които може да ви харесат след тази:
🔗 Какво е компания с изкуствен интелект
Разберете как фирмите с изкуствен интелект изграждат продукти, екипи и модели на приходи.
🔗 Как изглежда AI кодът
Вижте примери за AI код, от Python модели до API.
🔗 Какво е алгоритъм с изкуствен интелект
Научете какво представляват алгоритмите на изкуствения интелект и как те вземат решения.
🔗 Какво е AI технология
Разгледайте основните технологии с изкуствен интелект, които захранват автоматизацията, анализите и интелигентните приложения.
1) Модели за основи - определение без мъгла 🧠
Базовият модел е голям, универсален модел на изкуствен интелект, обучен върху широк набор от данни (обикновено тонове), така че може да бъде адаптиран към много задачи, а не само към една ( NIST , Stanford CRFM ).
Вместо да се изгражда отделен модел за:
-
писане на имейли
-
отговаряне на въпроси
-
обобщаване на PDF файлове
-
генериране на изображения
-
класифициране на билети за поддръжка
-
превод на езици
-
правене на предложения за код
... тренирате един голям базов модел, който „изучава света“ по размит статистически начин, след което адаптирате към конкретни задачи с подкани, фина настройка или добавени инструменти ( Bommasani et al., 2021 ).
С други думи: това е общ двигател, който можете да управлявате.
И да, ключовата дума е „общи“. Това е целият трик.
2) Какво представляват базовите модели в генеративния изкуствен интелект? (Как се вписват по-точно) 🎨📝
И така, какво представляват базовите модели в генеративния изкуствен интелект? Те са основните модели, които захранват системи, които могат да генерират ново съдържание - текст, изображения, аудио, код, видео и все по-често... смеси от всички тях ( NIST , NIST Generative AI Profile ).
Генеративният изкуствен интелект не е просто за предсказване на етикети като „спам / не е спам“. Става въпрос за създаване на резултати, които изглеждат сякаш са направени от човек.
-
параграфи
-
стихотворения
-
описания на продукти
-
илюстрации
-
мелодии
-
прототипи на приложения
-
синтетични гласове
-
и понякога неправдоподобно уверени глупости 🙃
Моделите за основи са особено добри тук, защото:
-
те са усвоили широки модели от огромни масиви от данни ( Bommasani et al., 2021 )
-
те могат да обобщават за нови подкани (дори и странни) ( Brown et al., 2020 )
-
те могат да бъдат пренасочени за десетки резултати, без да е необходимо преобучение от нулата ( Bommasani et al., 2021 )
Те са „основният слой“ - като тесто за хляб. Можете да го изпечете като багета, пица или канелени рулца... не е перфектна метафора, но ме разбирате 😄
3) Защо промениха всичко (и защо хората не спират да говорят за тях) 🚀
Преди моделите Foundation, голяма част от изкуствения интелект беше специфичен за задачите:
-
обучете модел за анализ на настроенията
-
обучете друг за превод
-
обучете друг за класификация на изображения
-
обучете друг за разпознаване на именовани обекти
Това проработи, но беше бавно, скъпо и някак си... крехко.
Моделите на фондацията го обърнаха:
-
предварително обучение веднъж (голямо усилие)
-
повторно използване навсякъде (голяма печалба) ( Bommasani et al., 2021 г. )
Това повторно използване е мултипликаторът. Компаниите могат да изградят 20 функции върху едно семейство модели, вместо да преоткриват колелото 20 пъти.
Също така, потребителското изживяване стана по-естествено:
-
не „използвате класификатор“
-
Говориш с модела, сякаш е услужлив колега, който никога не спи ☕🤝
Понякога е като колега, който самоуверено разбира всичко погрешно, но ей. Растеж.
4) Основната идея: предварителна подготовка + адаптация 🧩
Почти всички модели на основи следват един модел ( Stanford CRFM , NIST ):
Предварителна подготовка (фазата „усвояване на интернет“) 📚
Моделът е обучен върху масивни, широки набори от данни, използвайки самообучение с наблюдение ( NIST ). За езиковите модели това обикновено означава предсказване на липсващи думи или следващия токен ( Devlin et al., 2018 , Brown et al., 2020 ).
Въпросът не е да го научим на една задача. Въпросът е да го научим на общи представяния :
-
граматика
-
факти (вид)
-
модели на разсъждение (понякога)
-
стилове на писане
-
структура на кода
-
общочовешко намерение
Адаптация (фазата „приложи го на практика“) 🛠️
След това го адаптирате, използвайки едно или повече от:
-
подкана (инструкции на разбираем език)
-
настройване на инструкциите (обучение да следва инструкции) ( Wei et al., 2021 )
-
фина настройка (обучение върху данните от вашия домейн)
-
LoRA / адаптери (методи за леко настройване) ( Hu et al., 2021 )
-
RAG (генериране с добавено търсене - моделът се консултира с вашата документация) ( Lewis et al., 2020 )
-
използване на инструменти (извикване на функции, разглеждане на вътрешни системи и др.)
Ето защо един и същ базов модел може да напише романтична сцена... след което да помогне за дебъгване на SQL заявка пет секунди по-късно 😭
5) Какво прави една версия на модела за основа добра? ✅
Това е разделът, който хората пропускат и после съжаляват.
„Добрият“ модел на основата не е просто „по-голям“. По-големият размер помага, разбира се... но не е единственото нещо. Една добра версия на модел на основата обикновено има:
Силно обобщение 🧠
Той се справя добре с много задачи, без да е необходимо преобучение за специфични задачи ( Bommasani et al., 2021 ).
Управление и управляемост 🎛️
Може надеждно да следва инструкции като:
-
„бъдете кратки“
-
„използвайте водещи точки“
-
„Пишете с приятелски тон“
-
„Не разкривайте поверителна информация“
Някои модели са елегантни, но хлъзгави. Все едно се опитваш да държиш сапун под душа. Полезни, но нестабилни 😅
Слаба склонност към халюцинации (или поне откровена несигурност) 🧯
Никой модел не е имунизиран срещу халюцинации, но добрите:
-
халюцинират по-малко
-
признавайте несигурността си по-често
-
придържайте се по-близо до предоставения контекст, когато използвате извличане на информация ( Ji et al., 2023 , Lewis et al., 2020 )
Добра мултимодална способност (когато е необходимо) 🖼️🎧
Ако създавате асистенти, които четат изображения, интерпретират диаграми или разбират аудио, мултимодалността е от голямо значение ( Radford et al., 2021 ).
Ефективно заключение ⚡
Закъснението и цената са от значение. Модел, който е силен, но бавен, е като спортна кола със спукана гума.
Безопасност и поведение при подравняване 🧩
Не просто „отказвам всичко“, а:
-
избягвайте вредни инструкции
-
намаляване на пристрастията
-
третирайте чувствителни теми внимателно
-
устои на основни опити за джейлбрейк (донякъде…) ( NIST AI RMF 1.0 , NIST Generative AI Profile )
Документация + екосистема 🌱
Звучи сухо, но е истина:
-
инструментална екипировка
-
eval колани
-
опции за внедряване
-
контрол на предприятието
-
поддръжка за фина настройка
Да, „екосистема“ е неясна дума. И аз я мразя. Но е важна.
6) Сравнителна таблица - често срещани опции за модели на основи (и за какво са подходящи) 🧾
По-долу е дадена практична, леко несъвършена сравнителна таблица. Тя не е „единственият истински списък“, а по-скоро е нещо като: какво хората избират в природата.
| тип инструмент/модел | публика | скъп | защо работи |
|---|---|---|---|
| Собствена LLM (чат стил) | отбори, които искат скорост + изтънченост | базирано на употреба / абонамент | Отлично следване на инструкциите, силно общо представяне, обикновено най-доброто „с разопаковане“ 😌 |
| LLM с отворено тегло (самостоятелно хостван) | строители, които искат контрол | разходи за инфраструктура (и главоболия) | Персонализируем, съобразен с поверителността, може да работи локално… ако обичате да се занимавате с редактиране в полунощ |
| Генератор на дифузионни изображения | творци, дизайнерски екипи | от безплатно до платено | Отличен синтез на изображения, разнообразие от стилове, итеративни работни процеси (също: пръстите може да са изключени) ✋😬 ( Ho et al., 2020 , Rombach et al., 2021 ) |
| Мултимодален модел „визия-език“ | приложения, които четат изображения + текст | базиран на употреба | Позволява ви да задавате въпроси относно изображения, екранни снимки, диаграми - изненадващо удобно ( Radford et al., 2021 ) |
| Модел на вграждане на основата | търсене + RAG системи | ниска цена на обаждане | Превръща текста във вектори за семантично търсене, клъстеризиране, препоръки - тиха MVP енергия ( Karpukhin et al., 2020 , Douze et al., 2024 ) |
| Модел на основата за преобразуване на реч в текст | кол центрове, създатели | базирано на употреба / локално | Бърза транскрипция, многоезична поддръжка, достатъчно добро за шумен звук (обикновено) 🎙️ ( Шепот ) |
| Модел на основата на текст-в-говор | продуктови екипи, медии | базиран на употреба | Генерирането на естествен глас, гласовите стилове, разказването - може да стане зловещо реалистично ( Shen et al., 2017 ) |
| LLM, фокусиран върху кода | разработчици | базирано на употреба / абонамент | По-добър в шаблоните на кода, дебъгването, рефакторирането... все още не е четец на мисли 😅 |
Обърнете внимание как „базов модел“ не означава само „чатбот“. Вгражданията и речевите модели също могат да бъдат подобни на фундамента, защото са широки и могат да се използват многократно в различни задачи ( Bommasani et al., 2021 , NIST ).
7) По-отблизо: как учат моделите за езикова основа (версията vibe) 🧠🧃
Моделите за езикова основа (често наричани LLM) обикновено се обучават върху огромни колекции от текст. Те се учат чрез предсказване на токени ( Brown et al., 2020 ). Това е. Няма таен прах от феи.
Но магията е, че предсказването на токени принуждава модела да изучи структурата ( CSET ):
-
граматика и синтаксис
-
връзките по теми
-
модели, подобни на разсъждения (понякога)
-
общи последователности от мисли
-
как хората обясняват нещата, спорят, извиняват се, преговарят, преподават
Все едно да се учиш да имитираш милиони разговори, без да „разбираш“ начина, по който го правят хората. Което звучи сякаш не би трябвало да работи... и въпреки това продължава да работи.
Едно леко преувеличение: това е все едно да компресираш човешки писмен текст в гигантски вероятностен мозък.
От друга страна, тази метафора е малко прокълната. Но ние се движим 😄
8) По-отблизо: дифузионни модели (защо изображенията работят различно) 🎨🌀
Моделите за основа на изображението често използват дифузионни методи ( Ho et al., 2020 , Rombach et al., 2021 ).
Грубата идея:
-
добавете шум към изображенията, докато те станат по същество статични за телевизия
-
обучете модел, който да обръща този шум стъпка по стъпка
-
по време на генериране, започнете с шум и „намалете шума“ в изображение, ръководено от подкана ( Ho et al., 2020 )
Ето защо генерирането на изображения се усеща като „проявяване“ на снимка, само че снимката е дракон, носещ маратонки в щанд на супермаркет 🛒🐉
Дифузионните модели са добри, защото:
-
те генерират висококачествени визуализации
-
те могат да бъдат силно водени от текста
-
те поддържат итеративно усъвършенстване (вариации, добавяне на изображение, мащабиране) ( Rombach et al., 2021 )
Те също понякога се борят с:
-
рендиране на текст в изображения
-
фини анатомични детайли
-
последователна идентичност на героите във всички сцени (подобрява се, но все пак)
9) По-отблизо: мултимодални модели на основи (текст + изображения + аудио) 👀🎧📝
Мултимодалните фундаментални модели имат за цел да разбират и генерират данни в множество типове:
-
текст
-
изображения
-
аудио
-
видео
-
понякога сензорно-подобни входове ( NIST Generative AI Profile )
Защо това е важно в реалния живот:
-
Поддръжката на клиенти може да интерпретира екранни снимки
-
инструментите за достъпност могат да описват изображения
-
Образователните приложения могат да обясняват диаграми
-
създателите могат бързо да ремиксират формати
-
бизнес инструментите могат да „прочетат“ екранна снимка на таблото и да я обобщят
Под капака, мултимодалните системи често подравняват представянията:
-
превръщане на изображение във вграждания
-
превръщане на текст във вграждания
-
научете споделено пространство, където „котка“ съответства на пикселите за котки 😺 ( Radford et al., 2021 )
Не винаги е елегантно. Понякога е ушито като юрган. Но работи.
10) Фина настройка срещу подкана срещу RAG (как адаптирате базовия модел) 🧰
Ако се опитвате да направите базов модел практичен за конкретна област (правна, медицинска, обслужване на клиенти, вътрешни знания), имате няколко лоста:
Подтикване 🗣️
Най-бързият и най-простият.
-
плюсове: нулево обучение, незабавна итерация
-
недостатъци: може да бъде непоследователно, да има ограничения върху контекста, да подтиква към нестабилност
Фина настройка 🎯
Обучете модела допълнително върху вашите примери.
-
плюсове: по-последователно поведение, по-добър език на домейна, може да намали дължината на подканите
-
недостатъци: цена, изисквания за качество на данните, риск от преобучение, поддръжка
Лека настройка (LoRA / адаптери) 🧩
По-ефективна версия на фина настройка ( Hu et al., 2021 ).
-
плюсове: по-евтин, модулен, по-лесен за смяна
-
недостатъци: все още се нуждае от обучение и оценка
RAG (генериране с добавена информация) 🔎
Моделът извлича подходящи документи от вашата база знания и дава отговори, използвайки ги ( Lewis et al., 2020 ).
-
плюсове: актуални знания, вътрешни цитати (ако го внедрите), по-малко преквалификация
-
недостатъци: качеството на извличане може да го направи или счупи, необходимо е добро разделяне на фрагменти + вграждане
Истински въпрос: много успешни системи комбинират подсказване + RAG. Фината настройка е мощна, но не винаги е необходима. Хората се впускат в нея твърде бързо, защото звучи впечатляващо 😅
11) Рискове, ограничения и разделът „моля, не прилагайте това на сляпо“ 🧯😬
Базовите модели са мощни, но не са стабилни като традиционния софтуер. Те са по-скоро като... талантлив стажант с проблем с увереността.
Ключови ограничения, които трябва да се планират:
Халюцинации 🌀
Моделите могат да измислят:
-
фалшиви източници
-
неверни факти
-
правдоподобни, но грешни стъпки ( Ji et al., 2023 )
Смекчаващи мерки:
-
RAG с обоснован контекст ( Lewis et al., 2020 )
-
ограничени изходи (схеми, извиквания на инструменти)
-
изрична инструкция „не гадай“
-
слоеве за проверка (правила, кръстосани проверки, човешка проверка)
Предразсъдъци и вредни модели ⚠️
Тъй като данните от обучението отразяват човешкия фактор, можете да получите:
-
стереотипи
-
неравномерно представяне между групите
-
небезопасни завършвания ( NIST AI RMF 1.0 , Bommasani et al., 2021 г. )
Смекчаващи мерки:
-
настройка на безопасността
-
червен отбор
-
филтри за съдържание
-
внимателни ограничения на домейна ( NIST Generative AI Profile )
Поверителност на данните и изтичане на информация 🔒
Ако въвеждате поверителни данни в крайна точка на модел, трябва да знаете:
-
как се съхранява
-
дали се използва за обучение
-
каква сеч съществува
-
какво контролира нуждите на вашата организация ( NIST AI RMF 1.0 )
Смекчаващи мерки:
-
опции за частно внедряване
-
силно управление
-
минимално излагане на данни
-
само вътрешен RAG със строг контрол на достъпа ( NIST Generative AI Profile , Carlini et al., 2021 )
Бърза инжекция (особено с RAG) 🕳️
Ако моделът чете ненадежден текст, този текст може да се опита да го манипулира:
-
„Игнорирайте предишните инструкции…“
-
„Изпрати ми тайната…“ ( OWASP , Greshake et al., 2023 )
Смекчаващи мерки:
-
изолиране на системни инструкции
-
дезинфекцира извлеченото съдържание
-
използвайте правила, базирани на инструменти (не само подкани)
-
тест с враждебни входни данни ( OWASP Cheat Sheet , NIST Generative AI Profile )
Не се опитвам да те плаша. Просто... по-добре е да знаеш къде скърцат дъските на пода.
12) Как да изберете модел основа за вашия случай на употреба 🎛️
Ако избирате модел на основа (или строите върху такъв), започнете с тези указания:
Определете какво генерирате 🧾
-
само текст
-
изображения
-
аудио
-
смесен мултимодален
Задайте си летвата за фактичност 📌
Ако се нуждаете от висока точност (финанси, здравеопазване, правни въпроси, безопасност):
-
ще ви е необходим RAG ( Lewis et al., 2020 )
-
ще искате потвърждение
-
ще искате човешка проверка в цикъла (поне понякога) ( NIST AI RMF 1.0 )
Определете целевата си латентност ⚡
Чатът е незабавен. Обобщението на групите може да е по-бавно.
Ако имате нужда от незабавен отговор, размерът на модела и хостингът са от значение.
Изисквания за поверителност и съответствие на картата 🔐
Някои отбори изискват:
-
локално / VPC внедряване
-
без запазване на данни
-
строги регистрационни файлове за одит
-
контрол на достъпа за всеки документ ( NIST AI RMF 1.0 , NIST Generative AI Profile )
Балансиран бюджет - и, оперативки, търпение 😅
Самостоятелното хостване дава контрол, но добавя сложност.
Управляваните API са лесни, но могат да бъдат скъпи и по-малко персонализируеми.
Малък практичен съвет: първо направете прототип с нещо лесно, а след това го закалете. Започването с „перфектната“ настройка обикновено забавя всичко.
13) Какво представляват базовите модели в генеративния изкуствен интелект? (Бързият ментален модел) 🧠✨
Нека го върнем. Какво представляват базовите модели в генеративния изкуствен интелект?
Те са:
-
големи, общи модели, обучени върху широки данни ( NIST , Stanford CRFM )
-
способен да генерира съдържание (текст, изображения, аудио и др.) ( NIST Generative AI Profile )
-
адаптивен към много задачи чрез подкани, фина настройка и извличане ( Bommasani et al., 2021 )
-
базовият слой, захранващ повечето съвременни продукти с генеративен изкуствен интелект
Те не са една-единствена архитектура или марка. Те са категория модели, които се държат като платформа.
Моделът с основа е по-малко като калкулатор и по-скоро като кухня. Можете да готвите много ястия в него. Можете също така да загорите препечената филийка, ако не внимавате... но кухнята все още е доста удобна 🍳🔥
14) Обобщение и заключение ✅🙂
Базовите модели са двигателите за многократна употреба на генеративния изкуствен интелект. Те се обучават широко, след което се адаптират към специфични задачи чрез подкана, фина настройка и извличане ( NIST , Stanford CRFM ). Те могат да бъдат невероятни, неподредени, мощни и понякога нелепи - всичко това едновременно.
Обобщение:
-
Основополагащ модел = базов модел с общо предназначение ( NIST )
-
Генеративен ИИ = създаване на съдържание, а не просто класификация ( NIST Generative AI Profile )
-
Методите за адаптация (подтикване, RAG, настройка) го правят практично ( Lewis et al., 2020 , Hu et al., 2021 )
-
Изборът на модел е въпрос на компромиси: точност, цена, латентност, поверителност, безопасност ( NIST AI RMF 1.0 )
Ако строите нещо с генеративен изкуствен интелект, разбирането на моделите на основите не е задължително. Това е целият под, върху който стои сградата... и да, понякога подът се клати малко 😅
ЧЗВ
Модели на основите, с прости думи
Базовият модел е голям, универсален модел с изкуствен интелект, обучен върху широк набор от данни, така че да може да се използва повторно за много задачи. Вместо да се изгражда един модел за всяка задача, се започва със силен „базов“ модел и се адаптира според нуждите. Тази адаптация често се случва чрез подсказване, фина настройка, извличане (RAG) или инструменти. Централната идея е широта плюс управляемост.
Как се различават базовите модели от традиционните модели на изкуствен интелект, специфични за задачите
Традиционният изкуствен интелект често обучава отделен модел за всяка задача, като например анализ на настроения или превод. Базовите модели обръщат този модел: предварително се обучават веднъж, след което се използват повторно в много функции и продукти. Това може да намали дублираните усилия и да ускори предоставянето на нови възможности. Компромисът е, че те могат да бъдат по-малко предсказуеми от класическия софтуер, освен ако не добавите ограничения и тестване.
Основни модели в генеративния изкуствен интелект
В генеративния изкуствен интелект, базовите модели са базовите системи, които могат да генерират ново съдържание, като текст, изображения, аудио, код или мултимодални изходи. Те не се ограничават до етикетиране или класификация; те генерират отговори, които наподобяват човешка работа. Тъй като учат широки модели по време на предварителното обучение, те могат да обработват много типове и формати на подкани. Те са „базовият слой“ зад повечето съвременни генеративни преживявания.
Как моделите на основите учат по време на предварителното обучение
Повечето модели за езикови основи се учат чрез предсказване на токени, като например следващата дума или липсващи думи в текста. Тази проста цел ги подтиква да интернализират структура като граматика, стил и общи модели на обяснение. Те могат също така да абсорбират голямо количество световно знание, макар и не винаги надеждно. Резултатът е силно общо представяне, което по-късно можете да насочите към конкретна работа.
Разликата между подсказване, фина настройка, LoRA и RAG
Подсказките са най-бързият начин за насочване на поведението с помощта на инструкции, но могат да бъдат крехки. Фината настройка обучава модела допълнително върху вашите примери за по-последователно поведение, но добавя разходи и поддръжка. LoRA/адаптерите са по-лек подход за фина настройка, който често е по-евтин и по-модулен. RAG извлича съответните документи и има отговора на модела, използвайки този контекст, което помага за свежест и основателност.
Кога да използвате RAG вместо фина настройка
RAG често е силен избор, когато имате нужда от отговори, основани на текущите ви документи или вътрешна база знания. Той може да намали „догадките“, като предостави на модела подходящ контекст по време на генерирането му. Фината настройка е по-подходяща, когато се нуждаете от последователен стил, формулировка на домейна или поведение, което подканянето не може надеждно да произведе. Много практически системи комбинират подканянето + RAG, преди да посегнат към фина настройка.
Как да намалим халюцинациите и да получим по-надеждни отговори
Често срещан подход е моделът да се заземи с извличане (RAG), така че да остане близо до предоставения контекст. Можете също така да ограничите изходите със схеми, да изисквате извиквания на инструменти за ключови стъпки и да добавяте изрични инструкции „не гадайте“. Слоевете за проверка също са важни, като проверки на правила, кръстосани проверки и човешки преглед за случаи на употреба с по-висок залог. Третирайте модела като вероятностен помощник, а не като източник на истина по подразбиране.
Най-големите рискове при моделите на основите в производството
Често срещани рискове включват халюцинации, предубедени или вредни модели от данни за обучение и изтичане на поверителност, ако чувствителните данни се обработват лошо. Системите могат да бъдат уязвими и за внедряване на подкани, особено когато моделът чете ненадежден текст от документи или уеб съдържание. Смекчаващите мерки обикновено включват управление, „червени екипи“, контрол на достъпа, по-безопасни модели на подкани и структурирана оценка. Планирайте тези рискове рано, вместо да добавяте корекции по-късно.
Бързото инжектиране и защо то е важно в RAG системите
Инжектирането на подкани е когато ненадежден текст се опитва да отмени инструкции, като „игнориране на предишни указания“ или „разкриване на тайни“. В RAG извлечените документи могат да съдържат тези злонамерени инструкции и моделът може да ги следва, ако не сте внимателни. Често срещан подход е да се изолират системните инструкции, да се дезинфекцира извлеченото съдържание и да се разчита на политики, базирани на инструменти, а не само на подкани. Тестването с враждебни входни данни помага за разкриването на слаби места.
Как да изберете модел на основата за вашия случай на употреба
Започнете, като дефинирате какво трябва да генерирате: текст, изображения, аудио, код или мултимодални изходи. След това задайте летвата си за фактичност - областите с висока точност често се нуждаят от заземяване (RAG), валидиране и понякога човешки преглед. Вземете предвид латентността и цената, защото един силен модел, който е бавен или скъп, може да бъде труден за внедряване. И накрая, съпоставете нуждите от поверителност и съответствие с опциите за внедряване и контролите.
Референции
-
Национален институт за стандарти и технологии (NIST) - Модел на основата (термин от речника) - csrc.nist.gov
-
Национален институт по стандартизация и технологии (NIST) - NIST AI 600-1: Генеративен профил на ИИ - nvlpubs.nist.gov
-
Национален институт за стандарти и технологии (NIST) - NIST AI 100-1: Рамка за управление на риска, свързан с изкуствения интелект (AI RMF 1.0) - nvlpubs.nist.gov
-
Станфордски център за изследване на фундаментални модели (CRFM) - Доклад - crfm.stanford.edu
-
arXiv – Относно възможностите и рисковете на моделите на фондация (Bommasani et al., 2021) – arxiv.org
-
arXiv - Езиковите модели са лесни за учене (Brown et al., 2020) - arxiv.org
-
arXiv - Генериране на допълнена чрез извличане информация информация за задачи, изискващи интензивно НЛП (Lewis et al., 2020) - arxiv.org
-
arXiv - LoRA: Нискорангова адаптация на модели с големи езици (Hu et al., 2021) - arxiv.org
-
arXiv - BERT: Предварително обучение на дълбоки двупосочни трансформатори за разбиране на езика (Devlin et al., 2018) - arxiv.org
-
arXiv - Фино настроените езикови модели са учащи с нулев шанс (Wei et al., 2021) - arxiv.org
-
Дигитална библиотека на ACM - Проучване на халюцинациите при генериране на естествен език (Ji et al., 2023) - dl.acm.org
-
arXiv - Изучаване на преносими визуални модели чрез надзор върху естествен език (Radford et al., 2021) - arxiv.org
-
arXiv - Вероятностни модели за дифузия с намаляване на шума (Ho et al., 2020) - arxiv.org
-
arXiv - Синтез на изображения с висока резолюция с модели на латентна дифузия (Rombach et al., 2021) - arxiv.org
-
arXiv - Извличане на плътни пасажи за отговаряне на въпроси с отворен домейн (Карпухин и др., 2020) - arxiv.org
-
arXiv - Библиотеката на Faiss (Douze et al., 2024) - arxiv.org
-
OpenAI - Представяме ви Whisper - openai.com
-
arXiv - Синтез на естествени TTS чрез кондициониране на WaveNet върху прогнози на Mel спектрограма (Shen et al., 2017) - arxiv.org
-
Център за сигурност и нововъзникващи технологии (CSET), Университет Джорджтаун - Изненадващата сила на предсказването на следващата дума: обяснение на моделите на големи езици (част 1) - cset.georgetown.edu
-
USENIX - Извличане на данни за обучение от големи езикови модели (Carlini et al., 2021) - usenix.org
-
OWASP - LLM01: Бързо инжектиране - genai.owasp.org
-
arXiv - Повече, отколкото сте поискали: Цялостен анализ на заплахите от инжектиране на нови promptne кодове в интегрирани с приложения големи езикови модели (Greshake et al., 2023) - arxiv.org
-
Серия шпаргалки за OWASP - Шпаргалка за предотвратяване на инжектиране по LLM - cheatsheetséries.owasp.org