Генеративни претходно обучени трансформатор
Генеративни претходно обучени трансформатор (ГПТ) су тип великих језичких модела (ЛЛМ)[1][2][3] и проминентни оквир за генеративну вештачку интелигенцију.[4][5] Они су вештачке неуронске мреже које се користе у задацима обраде природног језика.[6] ГПТ-ови су засновани на архитектури трансформатора, претходно обучени за велике скупове података неозначеног текста и способни да генеришу нови садржај слично људском раду.[2][3] Од 2023. године већина ЛЛМ-а има ове карактеристике[7] и понекад се широко називају ГПТ-ови.[8]
Први ГПТ је увео ОпенАИ 2018. године.[9] ОпенАИ је објавио веома утицајне ГПТ фондацијске моделе који су накнадно нумерисани, да би обухватали своју „ГПТ-н“ серију.[10] Сваки од њих је био знатно способнији од претходног, због повећане величине (броја параметара за обуку) и обуке. Најновији од њих, ГПТ-4, објављен је у марту 2023. године.[11] Такви модели су били основа за њихове ГПТ системе који су специфични за задате задатке, укључујући моделе фино подешене за праћење инструкција — који заузврат покрећу ЦхатГПТ чатбот сервис.[1]
Термин „ГПТ” се такође користи у називима и описима таквих модела које су развили други. На пример, други модели ГПТ основа укључују серију модела креираних од стране ЕлеутхерАИ,[12] и седам модела које је креирао Церебрас 2023. године.[13] Такође, компаније у различитим индустријама развиле су ГПТ-ове специфичне за задатке у својим областима, као што је Сејлсфосов „ЕинстеинГПТ“ (за ЦРМ)[14] и Блумбергов „БлоомбергГПТ“ (за финансије).[15]
Референце
уреди- ^ а б Хаддад, Мохаммед. „Хоw доес ГПТ-4 wорк анд хоw цан yоу старт усинг ит ин ЦхатГПТ?”. www.аљазеера.цом.
- ^ а б „Генеративе АИ: а гаме-цхангер социетy неедс то бе реадy фор”. Wорлд Ецономиц Форум. 9. 1. 2023.
- ^ а б „Тхе А то З оф Артифициал Интеллигенце”. Тиме. 13. 4. 2023.
- ^ Ху, Лухуи (15. 11. 2022). „Генеративе АИ анд Футуре”. Медиум.
- ^ „ЦСДЛ | ИЕЕЕ Цомпутер Социетy”. www.цомпутер.орг.
- ^ „ЛибГуидес: Усинг АИ Лангуаге Моделс : ЦхатГПТ”.
- ^ Тоеwс, Роб. „Тхе Неxт Генератион Оф Ларге Лангуаге Моделс”. Форбес.
- ^ Мцкендрицк, Јое (13. 3. 2023). „Мост Јобс Соон То Бе 'Инфлуенцед' Бy Артифициал Интеллигенце, Ресеарцх Оут Оф ОпенАИ Анд Университy Оф Пеннсyлваниа Суггестс”. Форбес.
- ^ „Импровинг лангуаге ундерстандинг wитх унсупервисед леарнинг”. опенаи.цом (на језику: енглески). 11. 6. 2018. Архивирано из оригинала 2023-03-18. г. Приступљено 2023-03-18.
- ^ „ГПТ-1 то ГПТ-4: Еацх оф ОпенАИ'с ГПТ Моделс Еxплаинед анд Цомпаред”. МУО. 11. 4. 2023.
- ^ „ГПТ-4”. опенаи.цом (на језику: енглески). Приступљено 2023-12-08.
- ^ Алфорд, Антхонy (13. 7. 2021). „ЕлеутхерАИ Опен-Соурцес Сиx Биллион Параметер ГПТ-3 Цлоне ГПТ-Ј”. ИнфоQ.
- ^ „Неwс” (Саопштење).
- ^ Моррисон, Рyан (7. 3. 2023). „Салесфорце лаунцхес ЕинстеинГПТ буилт wитх ОпенАИ тецхнологy”. Тецх Монитор.
- ^ „Тхе ЦхатГПТ оф Финанце ис Хере, Блоомберг ис Цомбининг АИ анд Финтецх”. Форбес.