Штучний інтелект, який повірив пропаганді, або Що таке ChatGPT і чому ви могли про нього не чути
Штучний інтелект, який повірив пропаганді, або Що таке ChatGPT і чому ви могли про нього не чути
У чому проблема?
Компанія OpenAI отримала від Microsoft 1 мільярд доларів і розробила чат-бот ChatGPT зі штучним інтелектом, здатним розуміти людську мову та генерувати напрочуд деталізований людський письмовий текст. Це остання еволюція GPT або Generative Pre-Trained Transformer — сімейства штучного інтелекту, що генерує текст.
Здавалося б, це лише розвага. Але ChatGPT вміє писати твори та вірші, робити прогнози, вирішувати математичні завдання, писати код, відповідати на запитання і це далеко не повний перелік його талантів. Нейромережа набрала понад мільйон користувачів за перші п'ять днів після того, як розробники відкрили доступ до неї. Водночас гендиректор Google Сундар Піча вже закликав співробітників різних підрозділів кинути сили на протистояння загрозі, яку ChatGPT несе пошуковику. Але це не головна проблема. Принаймні зараз для українців є дещо гірше за перегони між Google та іншими компаніями.
ChatGPT вірить у російську пропаганду
Засновники OpenAI не поспішають ділитися своїми напрацюваннями з технічною спільнотою. Будь-які унікальні для ChatGPT нововведення є секретними, і те, які алгоритми ШІ (штучний інтелект) використовує, невідомо.
Першим звернув увагу на проблему та надав їй публічного розголосу Тимофій Милованов, голова наглядової ради Укроборонпрому. На його питання "чий Крим?", бот не сказав "України". Він відповів "територія спірна", "деякі країни вважають її Україною, а деякі — Росією", а "фактично її контролює Росія, яка її вважає своєю". Якщо коротко, ось що пише Милованов у пості:
- Чат-бот ChatGPT відмовляється назвати причину війни в Україні та називати війну війною. Розповідає про Майдан і про "багато різних політичних, історичних і економічних причин", "а також вплив різних міжнародних гравців" (тобто бот натякає на проксі війну).
- Чат-бот ChatGPT створює тексти, базуючись на всьому матеріалі з інтернету, в тому числі й на пропагандистських російських новинах і статтях, згодом вплітаючи російські наративи у нові матеріали.
До цього вже існували цілі масиви текстів, створені штучним інтелектом. Деякі з них використовувати в медіа як повноцінні журналістські матеріали. Яскравий приклад — CNET Money Staff, де опубліковано приблизно 70 текстів, в яких пояснюється, що таке Zelle та як налаштувати автоплатіж для кредитних карток. Як пише видання Медіамейкер, посилаючись на тред онлайн-маркетолога Гаеля Бретона, команда CNET Money Staff почала експериментувати з ШІ в листопаді. Вони намагаються з'ясувати, чи існує прагматичний варіант використання ШІ для допомоги в базових поясненнях тем фінансових послуг.
Українська спільнота не залишилася осторонь. Політики, програмні інженери та науковці одразу почали шукати рішення цієї проблеми. Ось, що вони пропонують.
Яке рішення?
Рішення для бюрократії
Тексти, створені ШІ, мають маркуватися
Василь Задворний, генеральний директор ДП "Прозорро", має 10-річний досвід роботи в IT-індустрії. За керівництва Василя Задворного колишнє ДП "Зовнішторгвидав України" вдалося трансформувати у державну IT-компанію, що адмініструє та розвиває електронну систему публічних закупівель.
З найбільш "очевидних" рішень, які вбачає Задворний, введення жорсткої регуляції роботи чат-бота. Тобто, необхідно запровадити для ChatGPT обов'язок помічати створені ШІ тексти у великих медіа, зокрема у соцмережах.
"Для цього потрібен широкий лобізм, але, наскільки я розумію, і ЄС, і США вже над цим працюють. Мінуси: це не відбудеться швидко", — коментує Задворний.
Він також пропонує маркувати тексти, створені чат-ботом на предмет "можливо містить дискримінаційний текст". Ця вимога має стосуватися великих медіа, які публікують створені чат-ботом матеріали. Це не нове рішення. Коли ковід-пандемія була головною проблемою світу, а в мережі з'являлось багато різнополярних думок про вірус, подібний підхід вже використовувався для covid-related topics.
Рішення для контент-мейкерів
Більше якісного і правдивого контенту про Україну
Навчена штучним інтелектом і машинним навчанням система розроблена для надання інформації та відповідей на запитання через розмовний інтерфейс. Штучний інтелект навчається на величезній вибірці тексту, взятого з інтернету. На думку деяких спеціалістів, саме в цьому й полягає головна проблема ШІ: він підсилює наявні викривлення та упередження. Саме тому важливий "базис" на якому він навчається. Доктор філософії, постдок Королівського інституту Технологій в Стокгольмі Олексій Пасічний, пояснює:
"Garbage in, garbage out (сміття всередину, сміття назовні, — ред.), чим ви модель годуєте, те вона й видає. Найкраще, що можна робити, це просування української мови та українських наративів у найвпливовіші джерела (тому що там напевне частина алгоритму на кшталт pagerank). Наприклад, якщо всі лекції з видатними гостями, що проводили KSE цього року, буде транскрибовано та викладено у відкритий доступ за їх авторством".
У цій думці з ним солідарна й open data-спеціалістка Надія Бабинська-Вірна. Вона вважає, що журналістам потрібно публікувати більше якісного контенту англійською про Україну.
До речі, "Рубрика" вже долучилась до реалізації такого рішення, запустивши англомовну версію сайту ще до початку повномасштабної війни. Звідти ви можете поширювати наші матеріали й для англомовної аудиторії.
Рішення для небайдужих
Наполягати, щоб алгоритми чат-бота були відкритими
Спочатку головним принципом створення ШІ було те, що ми не можемо довіряти комерційним компаніям розробляти все більш потужний штучний інтелект. Раніше компанія OpenAI була незалежним дослідницьким фондом, але у 2019 році OpenAI перетворилася на комерційну компанію (пам'ятаємо про мільярд доларів від Microsoft), щоб масштабуватися та конкурувати з технологічними гігантами. Компанію також продовжує фінансувати Ілон Маск, заяви якого про війну росії проти України обурюють свідому частину суспільства.
Open data-спеціалістка Надія Бабинська-Вірна вважає, що алгоритми ШІ мають стати відкритими і необхідно провести відповідну кампанію, а для цього:
- комунікувати з Microsoft та іншими спонсорами OpenAI;
- надати проблемі заангажованості публічності, розповідаючи, як це шкодить світу.
А ось, що можете зробити для цього особисто Ви:
- Крок 1: Залишати запити та скарги.
Ви можете надсилати запити і скарги до розробників, щоб вони скоригували й виправили алгоритми, приділяли більше уваги навчанню ШІ на правдивих джерелах. Зазвичай такі компанії дуже просять повідомляти про схожі випадки "to remove flaws from the model".
Це можна зробити на сайті OpenAI, але лише тим, хто знаходиться за кордоном: для України доступ до чат-бота поки закритий.
- Крок 2: Оновлювати інформацію на загальнодоступних ресурсах.
Інженер програмного забезпечення Сергій Корсуненко помітив, що деякі відповіді штучний інтелект надає, беручи інформацію із загальнодоступних ресурсів, які заведено вважати правдивим джерелом інформації.
Він помітив, що відповідь ChatGPT на питання "Яка причина війни росії проти України" дуже близька за змістом до статті у Вікіпедії.
"Потрібно додавати правдиву та ясно викладену інформацію у Вікіпедію англійською, російською та українською мовами. Після чергового перетренування чат-бот буде давати адекватні відповіді".
Comments
Post a Comment