Чатбот Grok та його популярність
З моменту запуску чатбота Grok від Ілона Маска у листопаді 2023 року, тисячі користувачів X (колишній Twitter) почали активно ставити запитання, намагаючись отримати швидкі відповіді на свої запити. Grok, розроблений компанією xAI, рекламується як чат-бот «з почуттям гумору» і має прямий доступ до Twitter. Однак, наскільки точні його відповіді?
Нещодавнє опитування британського видання TechRadar показало, що 27% американців використовують інструменти на базі штучного інтелекту, такі як ChatGPT від OpenAI, MetaAI, Gemini від Google, Copilot від Microsoft або Perplexity, замість традиційних пошукових систем. Серед молоді цей показник зріс до 29%.
Проблеми з точністю відповідей
Однак, нещодавні коментарі Grok про "геноцид білих" у Південній Африці викликали занепокоєння. Користувачі X були розчаровані, що бот піднімав цю тему, навіть коли запитання стосувалися зовсім інших тем, таких як статистика бейсболістів. Ця дискусія виникла після того, як адміністрація Трампа привезла білих південноафриканців до США, стверджуючи, що вони зазнають "геноциду".
Компанія xAI заявила, що "провела ретельне розслідування" у зв'язку з цими коментарями, звинувативши в події "несанкціоновані зміни" в системних інструкціях. Це піднімає питання: наскільки користувачі можуть бути впевненими в тому, що отримують правдиву інформацію?
Дослідження точності чатботів
Два дослідження, проведені BBC та Tow Center for Digital Journalism, виявили суттєві недоліки в роботі чатботів. Дослідження BBC показало, що 51% відповідей чатботів містили "значні проблеми", а 19% мали фактичні помилки. Піт Арчер, програмний директор BBC, зазначив, що "не можна розраховувати на те, що помічники з ШІ повідомлятимуть точні новини".
Дослідження Tow Center також показало, що вісім чатботів у 60% випадків не змогли правильно визначити походження уривків зі статей. Grok, зокрема, відповів неправильно на 94% запитів.
Джерела інформації та їх якість
Джерела інформації для чатботів надходять з різних баз даних і вебпошуку. Якість і точність відповідей можуть варіюватися в залежності від того, як чатботи навчаються і програмуються. Томмазо Канетта, заступник директора італійського проєкту з перевірки фактів, зазначив, що "одна з проблем - це затоплення великих мовних моделей російською дезінформацією".
Канетта також підкреслив, що якщо джерела не заслуговують на довіру, то і відповіді будуть такими ж.
Висновки та рекомендації
Експерти вважають, що чатботи можуть бути корисними для базової перевірки фактів, але не слід покладатися на них повністю. Користувачі завжди повинні перевіряти відповіді в інших джерелах. Як зазначив Фелікс Саймон, дослідник у галузі ШІ, "системи ШІ не слід розглядати як інструменти для перевірки фактів".
Таким чином, хоча Grok та інші чатботи можуть здаватися корисними, їхня точність і надійність залишаються під питанням. Користувачам варто бути обережними і критично ставитися до інформації, отриманої від таких систем.
За даними DW