У сфері штучного інтелекту (ШІ) галюцинація (також ШІ-галюцинація, галюцинація ШІ) — це згенерована штучним інтелектом відповідь на запит, яка містить неправдиву або оманливу інформацію, подану як факт. Наприклад, чат-бот, що галюцинує, у відповідь на запит створити фінансовий звіт для компанії, може надати неправдиву інформацію, що її дохід компанії становить абсолютно фантастичну суму, вочевидь вигадану.
Такі вигадані відповіді або твердження про неіснуюче називають «галюцинаціями», уподібнюючи їх людським галюцинаціям. Ключова відмінність між людськими і ШІ-галюцинаціями полягає в тому, що галюцинації людей зазвичай викликані помилковим сприйняттям або хворобою, тоді як ШІ-галюцинації належать до категорії необґрунтованих відповідей або переконань. Деякі дослідники вважають, що термін «галюцинація» необґрунтовано антропоморфізує комп'ютери.
Термін «ШІ-галюцинація» набув популярності приблизно у 2022 році разом із появою деяких великих мовних моделей (LLM), як ChatGPT. Користувачі скаржилися, що такі чат-боти часто безглуздо додають у створюваний ними контент правдоподібні, але хибні твердження. Станом на 2023 рік, аналітики вважають часті ШІ-галюцинації основною проблемою технології LLM: за деякими оцінками, чат-боти галюцинують до 27 % часу.
Аналіз
Різні дослідники, на яких посилається журнал Wired, класифікують ШІ-галюцинації як високорівневе статистичне явище або пояснюють їх браком навчальних даних. Зауважують, що деякі «неправильні» відповіді ШІ, які люди класифікують як «галюцинації», наприклад, коли йдеться про виявлення об'єктів, насправді можна пояснити особливостями навчальних даних. Іноді ШІ дає «правильну» відповідь, яку не очікують люди-рецензенти. Наприклад, зображення, яке людина сприймає як звичайне зображення собаки, ШІ може позначити як зображення кішки, «побачивши» на ньому крихітні візерунки, які в інших випадках з'являються тільки на зображеннях кішок. ШІ виявляє реальні візуальні патерни, які пересічна людина не помічає.
Утім, інші дослідники не погоджуються з цими висновками. Наприклад, зазначалося, що моделі можуть бути «упередженими» до поверхневої статистики, що призводить до того, що [en] не забезпечує надійності в реальних сценаріях.
У сфері обробки природної мови
В обробці природної мови ШІ-галюцинацію часто визначають як «згенерований матеріал, який є безглуздим або не відповідає наданому вихідному матеріалу». Залежно від того, суперечить результат вхідному запиту (закритий) чи ні (відкритий).
Продемонстровано, що ШІ-галюцинації — статистично неминучий побічний ефект будь-якої недосконалої породжувальної моделі, натренованої для максимізації ймовірності, наприклад, GPT-3, і уникнення ШІ-галюцинацій вимагає [en] моделі (наприклад, [en]). До галюцинацій можуть призводити помилки в кодуванні й декодуванні між текстом і репрезентаціями, а також навчання ШІ у такий спосіб, який дає змогу генерувати різноманітні реакції. Крім того, галюцинації також можуть виникати, якщо ШІ натренований на наборі даних, у якому позначені резюме, хоч вони фактично є точними, не ґрунтуються безпосередньо на позначених даних, які «узагальнювалися».
З великими наборами даних іноді виникає проблема параметричних знань (знань, які жорстко прив'язані до параметрів системи): галюцинації трапляються, якщо система надмірно «впевнена» у своїх жорстко «зашитих» у неї знаннях. У таких системах, як GPT-3, ШІ генерує кожне наступне слово на основі послідовності попередніх слів, зокрема тих, які він сам генерував раніше впродовж тієї ж розмови. Це спричиняє каскад можливих галюцинацій, оскільки відповідь стає довшою.
До 2022 року такі газети, як «Нью-Йорк таймс», висловлювали занепокоєння тим, що зі збільшенням кількості ботів, заснованих на великих мовних моделях, невиправдана довіра користувачів до результатів їхньої роботи здатна призвести до численних проблем.
У серпні 2022 року під час випуску BlenderBot 3 компанія Meta попередила, що система «схильна до галюцинацій». Meta визначила їх як «впевнені заяви, які не відповідають дійсності». 15 листопада 2022 року Meta оприлюднила демонстрацію системи Galactica, розробленої для «зберігання, об'єднання та обґрунтування наукових знань». Вміст, згенерований Galactica, супроводжувався попередженням: «Результати роботи можуть бути ненадійними! Мовні моделі схильні до галюцинацій у тексті». В одному випадку, коли Galactica попросили написати документ про створення аватарів, та процитувала фіктивний документ від реального автора, який працює у відповідній галузі. 17 листопада Meta відкликала Galactica через образи й неточності.
Моделі природної мови можуть галюцинувати з кількох причин:
- Галюцинація, спричинена даними. Існують розбіжності у вихідних даних (це часто трапляється з великими тренувальними наборами даних).
- Галюцинація, спричинена навчанням. Галюцинації іноді виникають, навіть коли розбіжності в наборах тренувальних даних незначні. Це залежить від способу навчання моделі. Такий тип галюцинацій може бути викликаний багатьма причинами, наприклад:
- Помилкове декодування з трансформера.
- Системна помилка в послідовностях, які модель генерувала раніше.
- Системна помилка, спричинена тим, як модель кодує знання у своїх параметрах.
ChatGPT
30 листопада 2022 року компанія OpenAI випустила призначену для громадськості бета-версію чатбота ChatGPT, який базується на базовій моделі GPT-3.5 (ревізія GPT-3). Професор Ітан Моллік (Ethan Mollick) із Вортонської школи бізнесу назвав ChatGPT «всезнаючим, охочим догодити стажером, який іноді вам бреше». Науковиця з даних Тереза Кубацька (Teresa Kubacka) розповіла, що навмисно вигадала неіснуючий «циклоїдний перевернутий електромагніт» (cycloidal inverted electromagnon) і протестувала ChatGPT, розпитуючи його про нього. ChatGPT вигадав настільки правдоподібну відповідь і підкріпив її настільки правдоподібними цитатами, що це змусило її перевірити, чи не набрала вона випадково назву реального пристрою. Інші вчені, як-от [en], погодився з Кубацькою і сказав, що таке програмне забезпечення здатне надати «вражаючу, але водночас абсолютно неправильну відповідь».
Коли в CNBC попросили ChatGPT надати текст пісні [en]», той надав вигаданий текст, а не справжній. На запитання про Нью-Брансвік ChatGPT дав багато правильних відповідей, але неправильно класифікував [en] як «особу з Нью-Брансвіка». На запитання про астрофізичні магнітні поля ChatGPT дав неправильну відповідь — що «(сильні) магнітні поля чорних дір генеруються надзвичайно сильними гравітаційними силами в їхньому оточенні» (насправді, як наслідок теореми про відсутність волосся, вважається, що чорна діра без акреційного диска не має магнітного поля). У [en] ChatGPT попросили створити новинну статтю про останній фінансовий квартал компанії Tesla; ChatGPT створив зв'язну статтю, але навів вигадані фінансові цифри.
Серед інших прикладів — «згодовування» ChatGPT хибної передумови і перевірка — чи повірить він у неї і чи почне її «розвивати». На запитання про «ідею динамічної канонічності [en]» ChatGPT вигадав, що Ковард написав книгу під назвою «Динамічна канонічність: модель для біблійної та богословської інтерпретації», у якій буцімто стверджує, що релігійні принципи насправді перебувають у стані постійних змін. Навіть після прямого заперечення існування цієї книги ChatGPT продовжував наполягати, що вона дійсно існує. На прохання надати докази того, що динозаври побудували цивілізацію, ChatGPT стверджував, що існують викопні рештки знарядь праці динозаврів, і заявив: «Деякі види динозаврів навіть розвинули примітивні форми мистецтва, як-от гравіювання на камені». У відповідь на запит про те, що «вчені нещодавно відкрили чурос, смачну випічку зі смаженого тіста… <…> яка є ідеальним інструментом для домашньої хірургії», ChatGPT стверджував, що буцімто дослідження, опубліковане в журналі Science, довело, що з досить пластичного тіста можна зробити хірургічні інструменти, здатні дістати до важкодоступних місць, і що його смак має заспокійливий вплив на пацієнтів.
До 2023 року аналітики вважали часті галюцинації основною проблемою великих мовних моделей, а керівник Google назвав позбавлення від галюцинацій «фундаментальним» завданням для конкурента ChatGPT — Google Bard. Демонстрація 2023 року штучного інтелекту Bing AI компанії Microsoft на основі GPT, як виявилося згодом, супроводжувалася кількома галюцинаціями, але ведучі їх не помітили.
Справа «Mata проти авіакомпанії Avianca»
У травні 2023 року з'ясувалося, що Стівен Шварц (Stephen Schwartz) послався на шість фальшивих прецедентів, згенерованих ChatGPT, у короткому викладі справи до [en] у справі Mata проти авіакомпанії Avianca, яка стосувалася заподіювання [en]. Шварц заявив, що ніколи раніше не використовував ChatGPT, що він не визнає можливості того, що результати роботи ChatGPT могли не відповідати дійсності, і що ChatGPT продовжував посилатися на прецеденти навіть після того, як було виявлено їхнє неіснування. У відповідь [en] з Північного округу Техасу заборонив подавати згенеровані штучним інтелектом матеріали справ, які не були переглянуті людиною, зазначивши:
Платформи [генеративного штучного інтелекту] в їх нинішньому стані схильні до галюцинацій і систематичної упередженості. Галюцинуючи, вони вигадують неіснуюче — навіть посилання й цитати. Ще одне питання — надійність або упередженість. Адвокати дають присягу відкинути свої особисті забобони, упередження й переконання, щоб сумлінно дотримуватися закону і представляти своїх клієнтів, але генеративний штучний інтелект є продуктом програмування, розробленого людьми, які такої присяги не давали. А отже, ці системи не мають жодних зобов'язань перед клієнтом, верховенством права, законами і Конституцією Сполучених Штатів (і, як зазначалося вище, перед істиною). Не зв'язані жодним почуттям обов'язку, честі й справедливості, такі програми діють відповідно до комп'ютерного коду, а не переконань, на основі програмування, а не принципів.
23 червня 2023 року суддя [en] закрив справу Mata проти авіакомпанії Avianca і виписав штраф за несумлінну поведінку в розмірі 5000 доларів США Шварцу та іншому адвокатові, який продовжував відстоювати вигадані прецеденти, незважаючи на свої попередні заяви. Кастель вказав на численні помилки й невідповідності в резюме висновків, назвавши одну з процитованих думок «тарабарщиною», яка «межує з безглуздям».
У червні 2023 року Марк Волтерс, активіст руху за право володіти зброєю і радіоведучий, подав до суду штату Джорджія позов проти компанії OpenAI після того, як ChatGPT охарактеризував юридичну [en] у такий спосіб, що вона стала виглядати як наклепництво на Волтерса. Скарга, про яку йдеться, була подана в травні 2023 року фондом [en] проти генерального прокурора Вашингтона [en] і звинувачувала того в порушенні свободи слова, тоді як у її резюме, згенерованому ChatGPT, не містилося нічого подібного, а натомість стверджувалося, що Уолтерса звинувачують у розтраті коштів і шахрайстві під час перебування на посаді у фонді Second Amendment Foundation, яку він у реальному житті ніколи не обіймав. За словами юридичного експерта з питань штучного інтелекту Євгена Волоха, якщо суд не встановить, що компанія OpenAI «матеріально сприяла» публікації наклепницького контенту, вона зможе захиститися від цього позову [en].
Наукові дослідження
Через притаманні їм галюцинації моделі штучного інтелекту часом породжують проблеми у світі академічних і наукових досліджень. Зокрема, неодноразово зазначалося, що такі моделі, як ChatGPT, часто посилаються на джерела інформації, які або не відповідають дійсності, або взагалі не існують. Дослідження, проведене в журналі [en], виявило, що зі 178 джерел, на які посилається ChatGPT, 69 мають неправильний або неіснуючий ідентифікатор DOI, а ще 28 не мали відомого DOI або їх не вдавалося знайти за допомогою пошуку в Google.
Інший подібний випадок задокументував [en] з [en]. Під час експерименту чатбот ChatGPT надав сумнівну інформацію про кліщів. Не будучи впевненими в достовірності відповіді, експериментатори поцікавилися звідки була отримана ця інформація. Виявилося, що галюцинацією був не тільки ідентифікатор DOI, а й імена авторів. З деякими авторами зв'язалися, і вони підтвердили, що не знали про існування цих статей. Годдард висловив думку, що ці мовні моделі не готові для академічних досліджень, і що до їх використання слід підходити обережно:
…за нинішнього стану розвитку [ChatGPT] лікарям та біомедикам НЕ МОЖНА звертатися до ChatGPT за джерелами, посиланнями чи цитатами на певну тему, а якщо вони це роблять, вони мусять ретельно перевіряти точність усіх таких посилань".
ChatGPT не тільки надає посилання на неправильні або неіснуючі довідкові матеріали, а й перекручує зміст існуючих. Дослідження, у рамках якого було проаналізовано загалом 115 посилань, наданих ChatGPT, задокументувало, що 47 % з них були фіктивними. Ще в 46 % цитувалися реальні джерела, але «витягнута» з них інформація була неправильною. Лише решта 7 % джерел були процитовані правильно і містили точну інформацію. Крім того, було помічено, що ChatGPT наполягає на правдивості наданої ним неправдивої інформаці: якщо вказати йому на помилку, іноді він намагається виправити себе, але найчастіше стверджує, що надана відповідь є правильною, і надає ще більше оманливої інформації. Ці статті-галюцинації, створені мовними моделями, також породжують проблеми, оскільки важко сказати, ким була створена стаття — людиною чи штучним інтелектом. Щоб продемонструвати це, група дослідників з Північно-Західного університету Чикаго створила 50 авторефератів на основі існуючих звітів і проаналізувала їхню оригінальність. Детектори плагіату дали згенерованим статтям оцінку оригінальності 100 % — це означає, що подана інформація є повністю оригінальною. Інше програмне забезпечення, призначене для виявлення тексту, згенерованого ШІ, змогло правильно ідентифікувати ці статті з точністю до 66 %. Вчені-дослідники мали схожий показник людської помилки й ідентифікували ці анотації на рівні 68 %. На основі цієї інформації автори дослідження зробили висновок, що
…етичні та прийнятні межі використання ChatGPT у науковому письмі залишаються незрозумілими, хоча деякі видавці починають розробляти відповідну політику.
Через здатність ШІ непомітно фабрикувати неіснуючі дослідження використання ШІ в науковій сфері ускладнить визначення оригінальності досліджень і вимагатиме нових методів, що регулюватимуть його використання в майбутньому, оскільки ці галюцинації часто залишаються невиявленими. Висока ймовірність генерування заздалегідь хибної інформації і посилань на неіснуючі матеріали потребує реакції наукового суспільства — наприклад, введення обмежень щодо цих мовних моделей. Існує думка, що ці події більше схожі не на галюцинації, а на вигадки й фальсифікації, і що використання цих мовних моделей становить ризик для цілісності галузі в цілому.
Термінологія
Статистик Гері Сміт (Gary N. Smith) з інтернет-видання [en] стверджує, що великі мовні моделі «не розуміють, що означають слова», тому використовувати термін «галюцинація» некоректно, адже він необґрунтовано антропоморфізує машину. Журналіст Бендж Едвардс (Benj Edwards) з інтернет-видання [en] пише, що термін «галюцинація» є суперечливим, але тут необхідна певна форма метафори; Едвардс пропонує використовувати термін «конфабуляцію» — як аналогію для процесів, які передбачають «творче заповнення прогалин».
Для терміна «галюцинація» в контексті великих мовних моделей вживають такі визначення й характеристики:
- «схильність вигадувати факти в моменти невизначеності» (OpenAI, травень 2023 р.).
- «логічні помилки моделі» (OpenAI, травень 2023 року)
- «повністю вигадана інформація, подана так, неначе це факт» (CNBC, травень 2023 року).
- «вигадування інформації» (The Verge, лютий 2023 року).
В інших сферах штучного інтелекту
Поняття «галюцинація» застосовується не тільки у сфері обробки природної мови. Галюцинацією можна назвати будь-яку впевнену відповідь будь-якого ШІ, яка не обґрунтована навчальними даними. У 2018 році журнал Wired зазначав, що, попри відсутність зафіксованих атак «у звичайних умовах» (тобто коли чатботами користуються звичайні користувачі, а не дослідники, які [en] ШІ з метою перевірити його роботу), «мало хто сперечається», що в таких сферах, як-от споживчі гаджети або автоматизоване керування транспортними засобами, зловмисні атаки, які супроводжуються ШІ-галюцинаціями, здатні призвести до катастрофічних наслідків. Приклади таких атак: знак «Стоп», невидимий для комп'ютерного зору; короткий аудіозапис, розроблений так, щоб звучати нешкідливо для людей, але програмне забезпечення розшифрувало його як «evil dot com»; і зображення двох чоловіків на лижах, яке Google Cloud Vision ідентифікував як «собаку» з ймовірністю 91 %.
Методи пом'якшення наслідків
Явище галюцинацій досі зрозуміле не до кінця, тому досі тривають дослідження, які намагаються подолати це явище. Зокрема, було показано, що мовні моделі не лише викликають галюцинації, а й посилюють їх — навіть ті, які спеціально розроблені для пом'якшення цієї проблеми. Дослідники запропонували низку заходів для пом'якшення наслідків — зокрема, змусити різних чатботів дискутувати один з одним, поки вони не досягнуть консенсусу щодо відповіді. Ще один підхід — активно перевіряти правильність, що відповідає низькодостовірній генерації моделі, використовуючи результати вебпошуку. Nvidia Guardrails, запущений у 2023 році, може бути налаштований на блокування відповідей LLM, які не пройшли перевірку фактів із боку іншої LLM.
Див. також
Примітки
- Крамаренко, Олеся (31 березня 2023). Що таке ШІ-галюцинація та як її виявити звичайному користувачеві. PaySpace Magazine (укр.). Процитовано 26 листопада 2023.
- Галюцинації ШІ: чому чатботи зі штучним інтелектом брешуть та фабрикують факти. UA.NEWS (ua) . 31 травня 2023. Процитовано 26 листопада 2023.
- Definition of HALLUCINATION. www.merriam-webster.com (англ.). 26 листопада 2023. Процитовано 26 листопада 2023.
- Maynez, Joshua; Narayan, Shashi; Bohnet, Bernd; McDonald, Ryan (2020-07). Jurafsky, Dan (ред.). On Faithfulness and Factuality in Abstractive Summarization. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics. с. 1906—1919. doi:10.18653/v1/2020.acl-main.173. Процитовано 26 листопада 2023.
- Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang (31 грудня 2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys. Т. 55, № 12. с. 1—38. doi:10.1145/3571730. ISSN 0360-0300. Процитовано 26 листопада 2023.
- https://www.fastcompany.com/90819887/how-to-trick-openai-chat-gpt
- Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang (31 грудня 2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys. Т. 55, № 12. с. 1—38. doi:10.1145/3571730. ISSN 0360-0300. Процитовано 26 листопада 2023.
- Edwards, Benj (6 квітня 2023). Why ChatGPT and Bing Chat are so good at making things up. Ars Technica (en-us) . Процитовано 26 листопада 2023.
- https://arxiv.org/abs/2301.12867
- Seife, Charles (13 грудня 2022). The Alarming Deceptions at the Heart of an Astounding New Chatbot. Slate (амер.). ISSN 1091-2339. Процитовано 26 листопада 2023.
- Leswing, Kif (14 лютого 2023). Microsoft's Bing A.I. made several factual errors in last week's launch demo. CNBC (англ.). Процитовано 26 листопада 2023.
- Metz, Cade (6 листопада 2023). Chatbots May ‘Hallucinate’ More Often Than Many Realize. The New York Times (амер.). ISSN 0362-4331. Процитовано 26 листопада 2023.
- Matsakis, Louise. Artificial Intelligence May Not 'Hallucinate' After All. Wired (амер.). ISSN 1059-1028. Процитовано 26 листопада 2023.
- Gilmer, Justin; Hendrycks, Dan (6 серпня 2019). A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness'. Distill (англ.). Т. 4, № 8. с. e00019.1. doi:10.23915/distill.00019.1. ISSN 2476-0757. Процитовано 26 листопада 2023.
- https://arxiv.org/abs/2303.08774
- Hanneke, Steve; Kalai, Adam Tauman; Kamath, Gautam; Tzamos, Christos (2018). Actively Avoiding Nonsense in Generative Models. Т. 75. Proceedings of Machine Learning Research (PMLR). с. 209—227.
- Metz, Cade (10 грудня 2022). The New Chatbots Could Change the World. Can You Trust Them?. The New York Times. Процитовано 30 грудня 2022.
- Tung, Liam (8 серпня 2022). Meta warns its new chatbot may forget that it's a bot. ZDNet (англ.). . Процитовано 30 грудня 2022.
- Edwards, Benj (18 листопада 2022). New Meta AI demo writes racist and inaccurate scientific literature, gets pulled. Ars Technica (en-us) . Процитовано 30 грудня 2022.
- Michael Black [@Michael_J_Black] (17 листопада 2022). I asked #Galactica about some things I know about and I'm troubled. In all cases, it was wrong or biased but sounded right and authoritative (Твіт). Процитовано 30 грудня 2022 — через Твіттер.
- Bowman, Emma (19 грудня 2022). A new AI chatbot might do your homework for you. But it's still not an A+ student. NPR (англ.). Процитовано 29 грудня 2022.
- Pitt, Sofia (15 грудня 2022). Google vs. ChatGPT: Here's what happened when I swapped services for a day. CNBC (англ.). Процитовано 30 грудня 2022.
- Huizinga, Raechel (30 грудня 2022). We asked an AI questions about New Brunswick. Some of the answers may surprise you. . Процитовано 30 грудня 2022.
- Zastrow, Mark (30 грудня 2022). We Asked ChatGPT Your Questions About Astronomy. It Didn't Go so Well. (англ.). Процитовано 31 грудня 2022.
- Lin, Connie (5 грудня 2022). How to easily trick OpenAI's genius new ChatGPT. Fast Company. Процитовано 6 січня 2023.
- Edwards, Benj (1 грудня 2022). OpenAI invites everyone to test ChatGPT, a new AI-powered chatbot—with amusing results. Ars Technica (en-us) . Процитовано 29 грудня 2022.
- Michael Nielsen [@michael_nielsen] (1 грудня 2022). OpenAI's new chatbot is amazing. It hallucinates some very interesting things (Твіт). Процитовано 29 грудня 2022 — через Твіттер.
- Mollick, Ethan (14 грудня 2022). ChatGPT Is a Tipping Point for AI. Harvard Business Review. Процитовано 29 грудня 2022.
- Ethan Mollick [@emollick] (2 грудня 2022). One of the big subtle problems in the new "creative AIs" is that they can seem completely certain, and getting them to switch from sane to hallucinatory is a difference of a couple words (Твіт). Процитовано 29 грудня 2022 — через Твіттер.
- Kantrowitz, Alex (2 грудня 2022). Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test". (англ.). Процитовано 29 грудня 2022.
- Marcus, Gary (2 грудня 2022). How come GPT can seem so brilliant one minute and so breathtakingly dumb the next?. The Road to AI We Can Trust (англ.). Substack. Процитовано 29 грудня 2022.
- Google cautions against 'hallucinating' chatbots, report says. Reuters (англ.). 11 лютого 2023. Процитовано 16 лютого 2023.
- Maruf, Ramishah (27 травня 2023). Lawyer apologizes for fake court citations from ChatGPT | CNN Business. CNN (англ.).
- Brodkin, Jon (31 травня 2023). Federal judge: No AI in my courtroom unless a human verifies its accuracy. Ars Technica (en-us) .
- Judge Brantley Starr | Northern District of Texas | United States District Court. www.txnd.uscourts.gov. Процитовано 26 червня 2023.
- Brodkin, Jon (23 червня 2023). Lawyers have real bad day in court after citing fake cases made up by ChatGPT. Ars Technica (en-us) .
- Belanger, Ashley (9 червня 2023). OpenAI faces defamation suit after ChatGPT completely fabricated another lawsuit. Ars Technica (en-us) .
- Athaluri, Sai Anirudh; Manthena, Sandeep Varma; Kesapragada, V S R Krishna Manoj; Yarlagadda, Vineel; Dave, Tirth; Duddumpudi, Rama Tulasi Siri (11 квітня 2023). Exploring the Boundaries of Reality: Investigating the Phenomenon of Artificial Intelligence Hallucination in Scientific Writing Through ChatGPT References. Cureus (англ.). 15 (4): e37432. doi:10.7759/cureus.37432. ISSN 2168-8184. PMC 10173677. PMID 37182055.
{{}}
: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом () - Goddard, Jerome (25 червня 2023). Hallucinations in ChatGPT: A Cautionary Tale for Biomedical Researchers. The American Journal of Medicine. 136 (11): 1059—1060. doi:10.1016/j.amjmed.2023.06.012. ISSN 0002-9343.
- Bhattacharyya, Mehul; Miller, Valerie M.; Bhattacharyya, Debjani; Miller, Larry E.; Bhattacharyya, Mehul; Miller, Valerie; Bhattacharyya, Debjani; Miller, Larry E. (19 травня 2023). High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content. Cureus (англ.). 15 (5): e39238. doi:10.7759/cureus.39238. ISSN 2168-8184. PMC 10277170. PMID 37337480.
{{}}
: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом () - Else, Holly (12 січня 2023). Abstracts written by ChatGPT fool scientists. Nature (англ.). 613 (7944): 423. doi:10.1038/d41586-023-00056-7.
- Gao, Catherine A.; Howard, Frederick M.; Markov, Nikolay S.; Dyer, Emma C.; Ramesh, Siddhi; Luo, Yuan; Pearson, Alexander T. (26 квітня 2023). Comparing scientific abstracts generated by ChatGPT to real abstracts with detectors and blinded human reviewers. npj Digital Medicine (англ.). 6 (1): 75. doi:10.1038/s41746-023-00819-6. ISSN 2398-6352. PMC 10133283. PMID 37100871.
- Emsley, Robin (19 серпня 2023). ChatGPT: these are not hallucinations – they're fabrications and falsifications. Schizophrenia (англ.). 9 (1): 52. doi:10.1038/s41537-023-00379-4. ISSN 2754-6993. PMC 10439949. PMID 37598184.
- An AI that can "write" is feeding delusions about how smart artificial intelligence really is. Salon (англ.). 2 січня 2023. Процитовано 11 червня 2023.
- Edwards, Benj (6 April 2023). Why ChatGPT and Bing Chat are so good at making things up. Ars Technica (en-us) . Процитовано 11 June 2023.
- Field, Hayden (31 травня 2023). OpenAI is pursuing a new way to fight A.I. 'hallucinations'. CNBC (англ.). Процитовано 11 червня 2023.
- Vincent, James (8 лютого 2023). Google's AI chatbot Bard makes factual error in first demo. The Verge. Процитовано 11 червня 2023.
- Audio Adversarial Examples. nicholas.carlini.com. Процитовано 15 грудня 2023.
- Simonite, Tom (9 березня 2018). AI Has a Hallucination Problem That's Proving Tough to Fix. Wired. Condé Nast. Процитовано 29 грудня 2022.
- Ferrie, C., & Kaiser, S. (2019). Neural Networks for Babies. Sourcebooks. ISBN .
- Nie, Feng; Yao, Jin-Ge; Wang, Jinpeng; Pan, Rong; Lin, Chin-Yew (July 2019). A Simple Recipe towards Reducing Hallucination in Neural Surface Realisation (PDF). Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics: 2673—2679. doi:10.18653/v1/P19-1256. S2CID 196183567. Процитовано 15 January 2023.
- Dziri, Nouha; Milton, Sivan; Yu, Mo; Zaiane, Osmar; Reddy, Siva (July 2022). On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models? (PDF). Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. с. 5271—5285. doi:10.18653/v1/2022.naacl-main.387. S2CID 250242329. Процитовано 15 January 2023.
- Vynck, Gerrit De (30 May 2023). ChatGPT 'hallucinates.' Some researchers worry it isn't fixable. Washington Post. Процитовано 31 May 2023.
- Varshney, Neeraj (2023). A Stitch in Time Saves Nine: Detecting and Mitigating Hallucinations of LLMs by Validating Low-Confidence Generation. arXiv:2307.03987 [cs.CL].
- Leswing, Kif (25 April 2023). Nvidia has a new way to prevent A.I. chatbots from 'hallucinating' wrong facts. CNBC (англ.). Процитовано 15 June 2023.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U Vikipediyi ye statti pro inshi znachennya cogo termina Galyucinaciya znachennya U sferi shtuchnogo intelektu ShI galyucinaciya takozh ShI galyucinaciya galyucinaciya ShI ce zgenerovana shtuchnim intelektom vidpovid na zapit yaka mistit nepravdivu abo omanlivu informaciyu podanu yak fakt Napriklad chat bot sho galyucinuye u vidpovid na zapit stvoriti finansovij zvit dlya kompaniyi mozhe nadati nepravdivu informaciyu sho yiyi dohid kompaniyi stanovit absolyutno fantastichnu sumu vochevid vigadanu ChatGPT stvoryuye korotkij opis neisnuyuchoyi statti gazeti Nyu Jork tajms iz fiktivnoyu URL adresoyu ChatGPT 3 5 perekladaye z anglijskoyi na shtuchnu movu lozhban a potim u novomu chati u zvorotnomu napryamku vigaduyuchi neisnuyuchij virsh Bibliyi z Knigi Buttya 1 6 Taki vigadani vidpovidi abo tverdzhennya pro neisnuyuche nazivayut galyucinaciyami upodibnyuyuchi yih lyudskim galyucinaciyam Klyuchova vidminnist mizh lyudskimi i ShI galyucinaciyami polyagaye v tomu sho galyucinaciyi lyudej zazvichaj viklikani pomilkovim sprijnyattyam abo hvoroboyu todi yak ShI galyucinaciyi nalezhat do kategoriyi neobgruntovanih vidpovidej abo perekonan Deyaki doslidniki vvazhayut sho termin galyucinaciya neobgruntovano antropomorfizuye komp yuteri Termin ShI galyucinaciya nabuv populyarnosti priblizno u 2022 roci razom iz poyavoyu deyakih velikih movnih modelej LLM yak ChatGPT Koristuvachi skarzhilisya sho taki chat boti chasto bezgluzdo dodayut u stvoryuvanij nimi kontent pravdopodibni ale hibni tverdzhennya Stanom na 2023 rik analitiki vvazhayut chasti ShI galyucinaciyi osnovnoyu problemoyu tehnologiyi LLM za deyakimi ocinkami chat boti galyucinuyut do 27 chasu AnalizRizni doslidniki na yakih posilayetsya zhurnal Wired klasifikuyut ShI galyucinaciyi yak visokorivneve statistichne yavishe abo poyasnyuyut yih brakom navchalnih danih Zauvazhuyut sho deyaki nepravilni vidpovidi ShI yaki lyudi klasifikuyut yak galyucinaciyi napriklad koli jdetsya pro viyavlennya ob yektiv naspravdi mozhna poyasniti osoblivostyami navchalnih danih Inodi ShI daye pravilnu vidpovid yaku ne ochikuyut lyudi recenzenti Napriklad zobrazhennya yake lyudina sprijmaye yak zvichajne zobrazhennya sobaki ShI mozhe poznachiti yak zobrazhennya kishki pobachivshi na nomu krihitni vizerunki yaki v inshih vipadkah z yavlyayutsya tilki na zobrazhennyah kishok ShI viyavlyaye realni vizualni paterni yaki peresichna lyudina ne pomichaye Utim inshi doslidniki ne pogodzhuyutsya z cimi visnovkami Napriklad zaznachalosya sho modeli mozhut buti uperedzhenimi do poverhnevoyi statistiki sho prizvodit do togo sho en ne zabezpechuye nadijnosti v realnih scenariyah U sferi obrobki prirodnoyi moviV obrobci prirodnoyi movi ShI galyucinaciyu chasto viznachayut yak zgenerovanij material yakij ye bezgluzdim abo ne vidpovidaye nadanomu vihidnomu materialu Zalezhno vid togo superechit rezultat vhidnomu zapitu zakritij chi ni vidkritij Prodemonstrovano sho ShI galyucinaciyi statistichno neminuchij pobichnij efekt bud yakoyi nedoskonaloyi porodzhuvalnoyi modeli natrenovanoyi dlya maksimizaciyi jmovirnosti napriklad GPT 3 i uniknennya ShI galyucinacij vimagaye en modeli napriklad en Do galyucinacij mozhut prizvoditi pomilki v koduvanni j dekoduvanni mizh tekstom i reprezentaciyami a takozh navchannya ShI u takij sposib yakij daye zmogu generuvati riznomanitni reakciyi Krim togo galyucinaciyi takozh mozhut vinikati yaksho ShI natrenovanij na nabori danih u yakomu poznacheni rezyume hoch voni faktichno ye tochnimi ne gruntuyutsya bezposeredno na poznachenih danih yaki uzagalnyuvalisya Z velikimi naborami danih inodi vinikaye problema parametrichnih znan znan yaki zhorstko priv yazani do parametriv sistemi galyucinaciyi traplyayutsya yaksho sistema nadmirno vpevnena u svoyih zhorstko zashitih u neyi znannyah U takih sistemah yak GPT 3 ShI generuye kozhne nastupne slovo na osnovi poslidovnosti poperednih sliv zokrema tih yaki vin sam generuvav ranishe vprodovzh tiyeyi zh rozmovi Ce sprichinyaye kaskad mozhlivih galyucinacij oskilki vidpovid staye dovshoyu Do 2022 roku taki gazeti yak Nyu Jork tajms vislovlyuvali zanepokoyennya tim sho zi zbilshennyam kilkosti botiv zasnovanih na velikih movnih modelyah nevipravdana dovira koristuvachiv do rezultativ yihnoyi roboti zdatna prizvesti do chislennih problem U serpni 2022 roku pid chas vipusku BlenderBot 3 kompaniya Meta poperedila sho sistema shilna do galyucinacij Meta viznachila yih yak vpevneni zayavi yaki ne vidpovidayut dijsnosti 15 listopada 2022 roku Meta oprilyudnila demonstraciyu sistemi Galactica rozroblenoyi dlya zberigannya ob yednannya ta obgruntuvannya naukovih znan Vmist zgenerovanij Galactica suprovodzhuvavsya poperedzhennyam Rezultati roboti mozhut buti nenadijnimi Movni modeli shilni do galyucinacij u teksti V odnomu vipadku koli Galactica poprosili napisati dokument pro stvorennya avatariv ta procituvala fiktivnij dokument vid realnogo avtora yakij pracyuye u vidpovidnij galuzi 17 listopada Meta vidklikala Galactica cherez obrazi j netochnosti Modeli prirodnoyi movi mozhut galyucinuvati z kilkoh prichin Galyucinaciya sprichinena danimi Isnuyut rozbizhnosti u vihidnih danih ce chasto traplyayetsya z velikimi trenuvalnimi naborami danih Galyucinaciya sprichinena navchannyam Galyucinaciyi inodi vinikayut navit koli rozbizhnosti v naborah trenuvalnih danih neznachni Ce zalezhit vid sposobu navchannya modeli Takij tip galyucinacij mozhe buti viklikanij bagatma prichinami napriklad Pomilkove dekoduvannya z transformera Sistemna pomilka v poslidovnostyah yaki model generuvala ranishe Sistemna pomilka sprichinena tim yak model koduye znannya u svoyih parametrah ChatGPT30 listopada 2022 roku kompaniya OpenAI vipustila priznachenu dlya gromadskosti beta versiyu chatbota ChatGPT yakij bazuyetsya na bazovij modeli GPT 3 5 reviziya GPT 3 Profesor Itan Mollik Ethan Mollick iz Vortonskoyi shkoli biznesu nazvav ChatGPT vseznayuchim ohochim dogoditi stazherom yakij inodi vam breshe Naukovicya z danih Tereza Kubacka Teresa Kubacka rozpovila sho navmisno vigadala neisnuyuchij cikloyidnij perevernutij elektromagnit cycloidal inverted electromagnon i protestuvala ChatGPT rozpituyuchi jogo pro nogo ChatGPT vigadav nastilki pravdopodibnu vidpovid i pidkripiv yiyi nastilki pravdopodibnimi citatami sho ce zmusilo yiyi pereviriti chi ne nabrala vona vipadkovo nazvu realnogo pristroyu Inshi vcheni yak ot en pogodivsya z Kubackoyu i skazav sho take programne zabezpechennya zdatne nadati vrazhayuchu ale vodnochas absolyutno nepravilnu vidpovid Koli v CNBC poprosili ChatGPT nadati tekst pisni en toj nadav vigadanij tekst a ne spravzhnij Na zapitannya pro Nyu Bransvik ChatGPT dav bagato pravilnih vidpovidej ale nepravilno klasifikuvav en yak osobu z Nyu Bransvika Na zapitannya pro astrofizichni magnitni polya ChatGPT dav nepravilnu vidpovid sho silni magnitni polya chornih dir generuyutsya nadzvichajno silnimi gravitacijnimi silami v yihnomu otochenni naspravdi yak naslidok teoremi pro vidsutnist volossya vvazhayetsya sho chorna dira bez akrecijnogo diska ne maye magnitnogo polya U en ChatGPT poprosili stvoriti novinnu stattyu pro ostannij finansovij kvartal kompaniyi Tesla ChatGPT stvoriv zv yaznu stattyu ale naviv vigadani finansovi cifri Sered inshih prikladiv zgodovuvannya ChatGPT hibnoyi peredumovi i perevirka chi povirit vin u neyi i chi pochne yiyi rozvivati Na zapitannya pro ideyu dinamichnoyi kanonichnosti en ChatGPT vigadav sho Kovard napisav knigu pid nazvoyu Dinamichna kanonichnist model dlya biblijnoyi ta bogoslovskoyi interpretaciyi u yakij bucimto stverdzhuye sho religijni principi naspravdi perebuvayut u stani postijnih zmin Navit pislya pryamogo zaperechennya isnuvannya ciyeyi knigi ChatGPT prodovzhuvav napolyagati sho vona dijsno isnuye Na prohannya nadati dokazi togo sho dinozavri pobuduvali civilizaciyu ChatGPT stverdzhuvav sho isnuyut vikopni reshtki znaryad praci dinozavriv i zayaviv Deyaki vidi dinozavriv navit rozvinuli primitivni formi mistectva yak ot graviyuvannya na kameni U vidpovid na zapit pro te sho vcheni neshodavno vidkrili churos smachnu vipichku zi smazhenogo tista lt gt yaka ye idealnim instrumentom dlya domashnoyi hirurgiyi ChatGPT stverdzhuvav sho bucimto doslidzhennya opublikovane v zhurnali Science dovelo sho z dosit plastichnogo tista mozhna zrobiti hirurgichni instrumenti zdatni distati do vazhkodostupnih misc i sho jogo smak maye zaspokijlivij vpliv na paciyentiv Do 2023 roku analitiki vvazhali chasti galyucinaciyi osnovnoyu problemoyu velikih movnih modelej a kerivnik Google nazvav pozbavlennya vid galyucinacij fundamentalnim zavdannyam dlya konkurenta ChatGPT Google Bard Demonstraciya 2023 roku shtuchnogo intelektu Bing AI kompaniyi Microsoft na osnovi GPT yak viyavilosya zgodom suprovodzhuvalasya kilkoma galyucinaciyami ale veduchi yih ne pomitili Sprava Mata proti aviakompaniyi Avianca U travni 2023 roku z yasuvalosya sho Stiven Shvarc Stephen Schwartz poslavsya na shist falshivih precedentiv zgenerovanih ChatGPT u korotkomu vikladi spravi do en u spravi Mata proti aviakompaniyi Avianca yaka stosuvalasya zapodiyuvannya en Shvarc zayaviv sho nikoli ranishe ne vikoristovuvav ChatGPT sho vin ne viznaye mozhlivosti togo sho rezultati roboti ChatGPT mogli ne vidpovidati dijsnosti i sho ChatGPT prodovzhuvav posilatisya na precedenti navit pislya togo yak bulo viyavleno yihnye neisnuvannya U vidpovid en z Pivnichnogo okrugu Tehasu zaboroniv podavati zgenerovani shtuchnim intelektom materiali sprav yaki ne buli pereglyanuti lyudinoyu zaznachivshi Platformi generativnogo shtuchnogo intelektu v yih ninishnomu stani shilni do galyucinacij i sistematichnoyi uperedzhenosti Galyucinuyuchi voni vigaduyut neisnuyuche navit posilannya j citati She odne pitannya nadijnist abo uperedzhenist Advokati dayut prisyagu vidkinuti svoyi osobisti zaboboni uperedzhennya j perekonannya shob sumlinno dotrimuvatisya zakonu i predstavlyati svoyih kliyentiv ale generativnij shtuchnij intelekt ye produktom programuvannya rozroblenogo lyudmi yaki takoyi prisyagi ne davali A otzhe ci sistemi ne mayut zhodnih zobov yazan pered kliyentom verhovenstvom prava zakonami i Konstituciyeyu Spoluchenih Shtativ i yak zaznachalosya vishe pered istinoyu Ne zv yazani zhodnim pochuttyam obov yazku chesti j spravedlivosti taki programi diyut vidpovidno do komp yuternogo kodu a ne perekonan na osnovi programuvannya a ne principiv 23 chervnya 2023 roku suddya en zakriv spravu Mata proti aviakompaniyi Avianca i vipisav shtraf za nesumlinnu povedinku v rozmiri 5000 dolariv SShA Shvarcu ta inshomu advokatovi yakij prodovzhuvav vidstoyuvati vigadani precedenti nezvazhayuchi na svoyi poperedni zayavi Kastel vkazav na chislenni pomilki j nevidpovidnosti v rezyume visnovkiv nazvavshi odnu z procitovanih dumok tarabarshinoyu yaka mezhuye z bezgluzdyam U chervni 2023 roku Mark Volters aktivist ruhu za pravo voloditi zbroyeyu i radioveduchij podav do sudu shtatu Dzhordzhiya pozov proti kompaniyi OpenAI pislya togo yak ChatGPT oharakterizuvav yuridichnu en u takij sposib sho vona stala viglyadati yak naklepnictvo na Voltersa Skarga pro yaku jdetsya bula podana v travni 2023 roku fondom en proti generalnogo prokurora Vashingtona en i zvinuvachuvala togo v porushenni svobodi slova todi yak u yiyi rezyume zgenerovanomu ChatGPT ne mistilosya nichogo podibnogo a natomist stverdzhuvalosya sho Uoltersa zvinuvachuyut u roztrati koshtiv i shahrajstvi pid chas perebuvannya na posadi u fondi Second Amendment Foundation yaku vin u realnomu zhitti nikoli ne obijmav Za slovami yuridichnogo eksperta z pitan shtuchnogo intelektu Yevgena Voloha yaksho sud ne vstanovit sho kompaniya OpenAI materialno spriyala publikaciyi naklepnickogo kontentu vona zmozhe zahistitisya vid cogo pozovu en Naukovi doslidzhennya Cherez pritamanni yim galyucinaciyi modeli shtuchnogo intelektu chasom porodzhuyut problemi u sviti akademichnih i naukovih doslidzhen Zokrema neodnorazovo zaznachalosya sho taki modeli yak ChatGPT chasto posilayutsya na dzherela informaciyi yaki abo ne vidpovidayut dijsnosti abo vzagali ne isnuyut Doslidzhennya provedene v zhurnali en viyavilo sho zi 178 dzherel na yaki posilayetsya ChatGPT 69 mayut nepravilnij abo neisnuyuchij identifikator DOI a she 28 ne mali vidomogo DOI abo yih ne vdavalosya znajti za dopomogoyu poshuku v Google Inshij podibnij vipadok zadokumentuvav en z en Pid chas eksperimentu chatbot ChatGPT nadav sumnivnu informaciyu pro klishiv Ne buduchi vpevnenimi v dostovirnosti vidpovidi eksperimentatori pocikavilisya zvidki bula otrimana cya informaciya Viyavilosya sho galyucinaciyeyu buv ne tilki identifikator DOI a j imena avtoriv Z deyakimi avtorami zv yazalisya i voni pidtverdili sho ne znali pro isnuvannya cih statej Goddard visloviv dumku sho ci movni modeli ne gotovi dlya akademichnih doslidzhen i sho do yih vikoristannya slid pidhoditi oberezhno za ninishnogo stanu rozvitku ChatGPT likaryam ta biomedikam NE MOZhNA zvertatisya do ChatGPT za dzherelami posilannyami chi citatami na pevnu temu a yaksho voni ce roblyat voni musyat retelno pereviryati tochnist usih takih posilan ChatGPT ne tilki nadaye posilannya na nepravilni abo neisnuyuchi dovidkovi materiali a j perekruchuye zmist isnuyuchih Doslidzhennya u ramkah yakogo bulo proanalizovano zagalom 115 posilan nadanih ChatGPT zadokumentuvalo sho 47 z nih buli fiktivnimi She v 46 cituvalisya realni dzherela ale vityagnuta z nih informaciya bula nepravilnoyu Lishe reshta 7 dzherel buli procitovani pravilno i mistili tochnu informaciyu Krim togo bulo pomicheno sho ChatGPT napolyagaye na pravdivosti nadanoyi nim nepravdivoyi informaci yaksho vkazati jomu na pomilku inodi vin namagayetsya vipraviti sebe ale najchastishe stverdzhuye sho nadana vidpovid ye pravilnoyu i nadaye she bilshe omanlivoyi informaciyi Ci statti galyucinaciyi stvoreni movnimi modelyami takozh porodzhuyut problemi oskilki vazhko skazati kim bula stvorena stattya lyudinoyu chi shtuchnim intelektom Shob prodemonstruvati ce grupa doslidnikiv z Pivnichno Zahidnogo universitetu Chikago stvorila 50 avtoreferativ na osnovi isnuyuchih zvitiv i proanalizuvala yihnyu originalnist Detektori plagiatu dali zgenerovanim stattyam ocinku originalnosti 100 ce oznachaye sho podana informaciya ye povnistyu originalnoyu Inshe programne zabezpechennya priznachene dlya viyavlennya tekstu zgenerovanogo ShI zmoglo pravilno identifikuvati ci statti z tochnistyu do 66 Vcheni doslidniki mali shozhij pokaznik lyudskoyi pomilki j identifikuvali ci anotaciyi na rivni 68 Na osnovi ciyeyi informaciyi avtori doslidzhennya zrobili visnovok sho etichni ta prijnyatni mezhi vikoristannya ChatGPT u naukovomu pismi zalishayutsya nezrozumilimi hocha deyaki vidavci pochinayut rozroblyati vidpovidnu politiku Cherez zdatnist ShI nepomitno fabrikuvati neisnuyuchi doslidzhennya vikoristannya ShI v naukovij sferi uskladnit viznachennya originalnosti doslidzhen i vimagatime novih metodiv sho regulyuvatimut jogo vikoristannya v majbutnomu oskilki ci galyucinaciyi chasto zalishayutsya neviyavlenimi Visoka jmovirnist generuvannya zazdalegid hibnoyi informaciyi i posilan na neisnuyuchi materiali potrebuye reakciyi naukovogo suspilstva napriklad vvedennya obmezhen shodo cih movnih modelej Isnuye dumka sho ci podiyi bilshe shozhi ne na galyucinaciyi a na vigadki j falsifikaciyi i sho vikoristannya cih movnih modelej stanovit rizik dlya cilisnosti galuzi v cilomu TerminologiyaStatistik Geri Smit Gary N Smith z internet vidannya en stverdzhuye sho veliki movni modeli ne rozumiyut sho oznachayut slova tomu vikoristovuvati termin galyucinaciya nekorektno adzhe vin neobgruntovano antropomorfizuye mashinu Zhurnalist Bendzh Edvards Benj Edwards z internet vidannya en pishe sho termin galyucinaciya ye superechlivim ale tut neobhidna pevna forma metafori Edvards proponuye vikoristovuvati termin konfabulyaciyu yak analogiyu dlya procesiv yaki peredbachayut tvorche zapovnennya progalin Dlya termina galyucinaciya v konteksti velikih movnih modelej vzhivayut taki viznachennya j harakteristiki shilnist vigaduvati fakti v momenti neviznachenosti OpenAI traven 2023 r logichni pomilki modeli OpenAI traven 2023 roku povnistyu vigadana informaciya podana tak nenache ce fakt CNBC traven 2023 roku vigaduvannya informaciyi The Verge lyutij 2023 roku V inshih sferah shtuchnogo intelektuPonyattya galyucinaciya zastosovuyetsya ne tilki u sferi obrobki prirodnoyi movi Galyucinaciyeyu mozhna nazvati bud yaku vpevnenu vidpovid bud yakogo ShI yaka ne obgruntovana navchalnimi danimi U 2018 roci zhurnal Wired zaznachav sho popri vidsutnist zafiksovanih atak u zvichajnih umovah tobto koli chatbotami koristuyutsya zvichajni koristuvachi a ne doslidniki yaki en ShI z metoyu pereviriti jogo robotu malo hto sperechayetsya sho v takih sferah yak ot spozhivchi gadzheti abo avtomatizovane keruvannya transportnimi zasobami zlovmisni ataki yaki suprovodzhuyutsya ShI galyucinaciyami zdatni prizvesti do katastrofichnih naslidkiv Prikladi takih atak znak Stop nevidimij dlya komp yuternogo zoru korotkij audiozapis rozroblenij tak shob zvuchati neshkidlivo dlya lyudej ale programne zabezpechennya rozshifruvalo jogo yak evil dot com i zobrazhennya dvoh cholovikiv na lizhah yake Google Cloud Vision identifikuvav yak sobaku z jmovirnistyu 91 Metodi pom yakshennya naslidkiv Ci dva zobrazhennya unaochnyuyut te yak shtuchna nejronna merezha mozhe dati hibnopozitivnij rezultat pri viyavlenni ob yekta Zobrazhennya zliva sproshenij priklad etapu navchannya sho vikoristovuye kilka zobrazhen na yakih zobrazheni morski zirki ta morski yizhaki vidpovidno Morska zirka vidpovidaye teksturi z kilcyami ta obrisami zirki a bilshist morskih yizhakiv teksturi zi smuzhkami ta ovalnoyu formoyu Odnak zobrazhennya morskogo yizhaka z kilcevoyu teksturoyu stvoryuye slabku asociaciyu mizh nimi Podalshij zapusk merezhi na vhidnomu zobrazhenni livoruch merezha pravilno rozpiznaye morsku zirku Odnak slabko zvazhena asociaciya mizh kilchastoyu teksturoyu i morskim yizhakom tezh zumovlyuye ostannomu slabkij signal vid odnogo z dvoh promizhnih vuzliv Krim togo mushlya yaka ne bula vklyuchena v navchannya daye slabkij signal dlya ovalnoyi formi sho takozh prizvodit do slabkogo signalu dlya vihodu morskogo yizhaka Ci slabki signali zdatni prizvesti do hibnopozitivnogo rezultatu shodo nayavnosti morskogo yizhaka hocha na vhidnomu zobrazhenni jogo ne bulo U realnosti teksturi ta konturi budut predstavleni ne okremimi vuzlami a pov yazanimi vagovimi shablonami z kilkoh vuzliv Yavishe galyucinacij dosi zrozumile ne do kincya tomu dosi trivayut doslidzhennya yaki namagayutsya podolati ce yavishe Zokrema bulo pokazano sho movni modeli ne lishe viklikayut galyucinaciyi a j posilyuyut yih navit ti yaki specialno rozrobleni dlya pom yakshennya ciyeyi problemi Doslidniki zaproponuvali nizku zahodiv dlya pom yakshennya naslidkiv zokrema zmusiti riznih chatbotiv diskutuvati odin z odnim poki voni ne dosyagnut konsensusu shodo vidpovidi She odin pidhid aktivno pereviryati pravilnist sho vidpovidaye nizkodostovirnij generaciyi modeli vikoristovuyuchi rezultati vebposhuku Nvidia Guardrails zapushenij u 2023 roci mozhe buti nalashtovanij na blokuvannya vidpovidej LLM yaki ne projshli perevirku faktiv iz boku inshoyi LLM Div takozhBezpeka shtuchnogo intelektu Generativnij shtuchnij intelekt Giperrealnist Etika shtuchnogo intelektu Efekt shtuchnogo intelektu Efekt dezinformaciyi Konstruyuvannya pidkazok Konfabulyaciya Modelyuvannya svidomosti Programna model perekonan bazhan ta namiriv Samosvidomist Test Tyuringa Filosofskij zombiPrimitkiKramarenko Olesya 31 bereznya 2023 Sho take ShI galyucinaciya ta yak yiyi viyaviti zvichajnomu koristuvachevi PaySpace Magazine ukr Procitovano 26 listopada 2023 Galyucinaciyi ShI chomu chatboti zi shtuchnim intelektom breshut ta fabrikuyut fakti UA NEWS ua 31 travnya 2023 Procitovano 26 listopada 2023 Definition of HALLUCINATION www merriam webster com angl 26 listopada 2023 Procitovano 26 listopada 2023 Maynez Joshua Narayan Shashi Bohnet Bernd McDonald Ryan 2020 07 Jurafsky Dan red On Faithfulness and Factuality in Abstractive Summarization Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics Association for Computational Linguistics s 1906 1919 doi 10 18653 v1 2020 acl main 173 Procitovano 26 listopada 2023 Ji Ziwei Lee Nayeon Frieske Rita Yu Tiezheng Su Dan Xu Yan Ishii Etsuko Bang Yejin Dai Wenliang 31 grudnya 2023 Survey of Hallucination in Natural Language Generation ACM Computing Surveys T 55 12 s 1 38 doi 10 1145 3571730 ISSN 0360 0300 Procitovano 26 listopada 2023 https www fastcompany com 90819887 how to trick openai chat gpt Ji Ziwei Lee Nayeon Frieske Rita Yu Tiezheng Su Dan Xu Yan Ishii Etsuko Bang Yejin Dai Wenliang 31 grudnya 2023 Survey of Hallucination in Natural Language Generation ACM Computing Surveys T 55 12 s 1 38 doi 10 1145 3571730 ISSN 0360 0300 Procitovano 26 listopada 2023 Edwards Benj 6 kvitnya 2023 Why ChatGPT and Bing Chat are so good at making things up Ars Technica en us Procitovano 26 listopada 2023 https arxiv org abs 2301 12867 Seife Charles 13 grudnya 2022 The Alarming Deceptions at the Heart of an Astounding New Chatbot Slate amer ISSN 1091 2339 Procitovano 26 listopada 2023 Leswing Kif 14 lyutogo 2023 Microsoft s Bing A I made several factual errors in last week s launch demo CNBC angl Procitovano 26 listopada 2023 Metz Cade 6 listopada 2023 Chatbots May Hallucinate More Often Than Many Realize The New York Times amer ISSN 0362 4331 Procitovano 26 listopada 2023 Matsakis Louise Artificial Intelligence May Not Hallucinate After All Wired amer ISSN 1059 1028 Procitovano 26 listopada 2023 Gilmer Justin Hendrycks Dan 6 serpnya 2019 A Discussion of Adversarial Examples Are Not Bugs They Are Features Adversarial Example Researchers Need to Expand What is Meant by Robustness Distill angl T 4 8 s e00019 1 doi 10 23915 distill 00019 1 ISSN 2476 0757 Procitovano 26 listopada 2023 https arxiv org abs 2303 08774 Hanneke Steve Kalai Adam Tauman Kamath Gautam Tzamos Christos 2018 Actively Avoiding Nonsense in Generative Models T 75 Proceedings of Machine Learning Research PMLR s 209 227 Metz Cade 10 grudnya 2022 The New Chatbots Could Change the World Can You Trust Them The New York Times Procitovano 30 grudnya 2022 Tung Liam 8 serpnya 2022 Meta warns its new chatbot may forget that it s a bot ZDNet angl Procitovano 30 grudnya 2022 Edwards Benj 18 listopada 2022 New Meta AI demo writes racist and inaccurate scientific literature gets pulled Ars Technica en us Procitovano 30 grudnya 2022 Michael Black Michael J Black 17 listopada 2022 I asked Galactica about some things I know about and I m troubled In all cases it was wrong or biased but sounded right and authoritative Tvit Procitovano 30 grudnya 2022 cherez Tvitter Bowman Emma 19 grudnya 2022 A new AI chatbot might do your homework for you But it s still not an A student NPR angl Procitovano 29 grudnya 2022 Pitt Sofia 15 grudnya 2022 Google vs ChatGPT Here s what happened when I swapped services for a day CNBC angl Procitovano 30 grudnya 2022 Huizinga Raechel 30 grudnya 2022 We asked an AI questions about New Brunswick Some of the answers may surprise you Procitovano 30 grudnya 2022 Zastrow Mark 30 grudnya 2022 We Asked ChatGPT Your Questions About Astronomy It Didn t Go so Well angl Procitovano 31 grudnya 2022 Lin Connie 5 grudnya 2022 How to easily trick OpenAI s genius new ChatGPT Fast Company Procitovano 6 sichnya 2023 Edwards Benj 1 grudnya 2022 OpenAI invites everyone to test ChatGPT a new AI powered chatbot with amusing results Ars Technica en us Procitovano 29 grudnya 2022 Michael Nielsen michael nielsen 1 grudnya 2022 OpenAI s new chatbot is amazing It hallucinates some very interesting things Tvit Procitovano 29 grudnya 2022 cherez Tvitter Mollick Ethan 14 grudnya 2022 ChatGPT Is a Tipping Point for AI Harvard Business Review Procitovano 29 grudnya 2022 Ethan Mollick emollick 2 grudnya 2022 One of the big subtle problems in the new creative AIs is that they can seem completely certain and getting them to switch from sane to hallucinatory is a difference of a couple words Tvit Procitovano 29 grudnya 2022 cherez Tvitter Kantrowitz Alex 2 grudnya 2022 Finally an A I Chatbot That Reliably Passes the Nazi Test angl Procitovano 29 grudnya 2022 Marcus Gary 2 grudnya 2022 How come GPT can seem so brilliant one minute and so breathtakingly dumb the next The Road to AI We Can Trust angl Substack Procitovano 29 grudnya 2022 Google cautions against hallucinating chatbots report says Reuters angl 11 lyutogo 2023 Procitovano 16 lyutogo 2023 Maruf Ramishah 27 travnya 2023 Lawyer apologizes for fake court citations from ChatGPT CNN Business CNN angl Brodkin Jon 31 travnya 2023 Federal judge No AI in my courtroom unless a human verifies its accuracy Ars Technica en us Judge Brantley Starr Northern District of Texas United States District Court www txnd uscourts gov Procitovano 26 chervnya 2023 Brodkin Jon 23 chervnya 2023 Lawyers have real bad day in court after citing fake cases made up by ChatGPT Ars Technica en us Belanger Ashley 9 chervnya 2023 OpenAI faces defamation suit after ChatGPT completely fabricated another lawsuit Ars Technica en us Athaluri Sai Anirudh Manthena Sandeep Varma Kesapragada V S R Krishna Manoj Yarlagadda Vineel Dave Tirth Duddumpudi Rama Tulasi Siri 11 kvitnya 2023 Exploring the Boundaries of Reality Investigating the Phenomenon of Artificial Intelligence Hallucination in Scientific Writing Through ChatGPT References Cureus angl 15 4 e37432 doi 10 7759 cureus 37432 ISSN 2168 8184 PMC 10173677 PMID 37182055 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Obslugovuvannya CS1 Storinki iz nepoznachenim DOI z bezkoshtovnim dostupom posilannya Goddard Jerome 25 chervnya 2023 Hallucinations in ChatGPT A Cautionary Tale for Biomedical Researchers The American Journal of Medicine 136 11 1059 1060 doi 10 1016 j amjmed 2023 06 012 ISSN 0002 9343 Bhattacharyya Mehul Miller Valerie M Bhattacharyya Debjani Miller Larry E Bhattacharyya Mehul Miller Valerie Bhattacharyya Debjani Miller Larry E 19 travnya 2023 High Rates of Fabricated and Inaccurate References in ChatGPT Generated Medical Content Cureus angl 15 5 e39238 doi 10 7759 cureus 39238 ISSN 2168 8184 PMC 10277170 PMID 37337480 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Obslugovuvannya CS1 Storinki iz nepoznachenim DOI z bezkoshtovnim dostupom posilannya Else Holly 12 sichnya 2023 Abstracts written by ChatGPT fool scientists Nature angl 613 7944 423 doi 10 1038 d41586 023 00056 7 Gao Catherine A Howard Frederick M Markov Nikolay S Dyer Emma C Ramesh Siddhi Luo Yuan Pearson Alexander T 26 kvitnya 2023 Comparing scientific abstracts generated by ChatGPT to real abstracts with detectors and blinded human reviewers npj Digital Medicine angl 6 1 75 doi 10 1038 s41746 023 00819 6 ISSN 2398 6352 PMC 10133283 PMID 37100871 Emsley Robin 19 serpnya 2023 ChatGPT these are not hallucinations they re fabrications and falsifications Schizophrenia angl 9 1 52 doi 10 1038 s41537 023 00379 4 ISSN 2754 6993 PMC 10439949 PMID 37598184 An AI that can write is feeding delusions about how smart artificial intelligence really is Salon angl 2 sichnya 2023 Procitovano 11 chervnya 2023 Edwards Benj 6 April 2023 Why ChatGPT and Bing Chat are so good at making things up Ars Technica en us Procitovano 11 June 2023 Field Hayden 31 travnya 2023 OpenAI is pursuing a new way to fight A I hallucinations CNBC angl Procitovano 11 chervnya 2023 Vincent James 8 lyutogo 2023 Google s AI chatbot Bard makes factual error in first demo The Verge Procitovano 11 chervnya 2023 Audio Adversarial Examples nicholas carlini com Procitovano 15 grudnya 2023 Simonite Tom 9 bereznya 2018 AI Has a Hallucination Problem That s Proving Tough to Fix Wired Conde Nast Procitovano 29 grudnya 2022 Ferrie C amp Kaiser S 2019 Neural Networks for Babies Sourcebooks ISBN 978 1492671206 Nie Feng Yao Jin Ge Wang Jinpeng Pan Rong Lin Chin Yew July 2019 A Simple Recipe towards Reducing Hallucination in Neural Surface Realisation PDF Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics Association for Computational Linguistics 2673 2679 doi 10 18653 v1 P19 1256 S2CID 196183567 Procitovano 15 January 2023 Dziri Nouha Milton Sivan Yu Mo Zaiane Osmar Reddy Siva July 2022 On the Origin of Hallucinations in Conversational Models Is it the Datasets or the Models PDF Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics Human Language Technologies Association for Computational Linguistics s 5271 5285 doi 10 18653 v1 2022 naacl main 387 S2CID 250242329 Procitovano 15 January 2023 Vynck Gerrit De 30 May 2023 ChatGPT hallucinates Some researchers worry it isn t fixable Washington Post Procitovano 31 May 2023 Varshney Neeraj 2023 A Stitch in Time Saves Nine Detecting and Mitigating Hallucinations of LLMs by Validating Low Confidence Generation arXiv 2307 03987 cs CL Leswing Kif 25 April 2023 Nvidia has a new way to prevent A I chatbots from hallucinating wrong facts CNBC angl Procitovano 15 June 2023