Цена ошибки искусственного интеллекта для бизнеса

Четверг, 24 августа 2023, 08:12
Как работать с генеративным ИИ, чтобы минимизировать репутационные риски для бизнеса? (укр)
marketing manager IT-компании Master of Code Global


Инновации в действии

За даними IBM, 50% CEO компаній інтегрують генеративний штучний інтелект (ШІ) у продукти та послуги. Ми в Master of Code Global маємо понад два десятки клієнтів, яких зацікавила технологія чат-ботів з генеративним ШІ.

Однак разом з очевидними перевагами використання новітніх технологій виникає серйозна проблема, що створює суттєві ризики. Мова йде про випадки, коли створюється неточний, абсурдний або відірваний від реальності текст. Ціна помилки може коштувати дуже дорого. Від шкоди репутації до фінансових втрат.

Яскравий приклад: нью-йоркський адвокат з 30-річним стажем роботи використав ChatGPT для підготовки документів у справі та надав суду посилання на вигадані нейромережею подібні випадки судових процесів.

Як сказав суддя, це були "фальшиві судові рішення з фальшивими цитатами". Юриста і юридичну фірму оштрафували на кілька тисяч доларів.

Інший приклад. Людина попросила ChatGPT створити перелік американських правознавців, яких звинувачували в сексуальних домаганнях. Нейромережа вигадала факт про реального професора права – нібито він робив непристойні пропозиції своїй студентці під час навчальної поїздки на Аляску.

Чат-бот посилався на статтю в The Washington Post, хоча такої статті не існує. Поки професор нічого не може зробити з наклепами від штучного інтелекту.

В Україні SMM-ник "Нового каналу" поширив у соцмережах згенеровану ChatGPT фейкову біографію письменника та громадського діяча Олеся Гончара. Телеканалу довелось вибачатися за поширення неправди.

Загалом для ChatGPT частка галюцинацій становить 15-20%. Інше дослідження показало, що в ChatGPT 3.5 цей показник сягає 39%, у ChatGPT 4 – 28%. Тому компанії та спеціалісти повинні передбачати можливість генерації помилкової або вигаданої інформації і робити певні дії для зменшення негативних наслідків.

Наслідки помилок ШІ

Дезінформація та введення в оману. Через обмежене контекстуальне розуміння та неможливість перевірки фактів великі мовні моделі можуть ненавмисно поширювати дезінформацію. Крім того, окремі особи можуть навмисно використовувати великі мовні моделі для поширення неправди.

Згідно з дослідженням Blackberry, 49% респондентів вважають, що GPT-4 буде використаний для поширення дезінформації. Це може мати далекосяжні негативні наслідки в соціальних, культурних, економічних та політичних сферах.

У світі штучного інтелекту все дуже просто. Чи може він витіснити людські стосунки?

Дискримінаційний і токсичний контент. Великі мовні моделі можуть посилювати шкідливі упередження, створюючи дискримінаційний і токсичний контент. Токсичність відповідей може збільшитися до шести разів, що призведе до продукування висловлювань, які підтримують стереотипи й образливі думки.

Порушення конфіденційності. Великі мовні моделі здатні порушувати приватність, оскільки вони можуть містити персональну інформацію про осіб. Були випадки, коли в публічний доступ ненавмисно потрапляли номери соціального захисту, домашні адреси, номери телефонів, медична інформація.

Як мінімізувати шкоду

Компанії, які інтегрують генеративний штучний інтелект (наприклад, ChatGPT), можуть використовувати різні стратегії для мінімізації випадків неправильних відповідей і покращення надійності, точності і довіри до вихідних даних.

Попередня обробка та контроль введення.

  • Обмеження довжини відповіді: встановлення максимальної довжини для згенерованих відповідей мінімізує ймовірність появи нерелевантного контенту.
  • Контрольоване введення: замість надання текстового поля вільної форми надання користувачам конкретних стилів або структурованих вказівок спрямовує процес генерування моделі.

Конфігурація моделі та поведінка.

  • Налаштування параметрів моделі: згенерований текст значною мірою залежить від різних параметрів моделі, включаючи температуру, "штраф за частоту", "штраф за наявність".

Наприклад, налаштування вищих значень температури сприяє випадковості і творчості, непередбаченому результату, тоді як нижчі значення зроблять відповідь більш детермінованою та консервативною.

  • Використання модерації. Впровадження системи модерації допомагає фільтрувати недоречний або небезпечний вміст, згенерований моделлю. Це створює додатковий рівень контролю, щоб забезпечити відповідність згенерованих відповідей попередньо визначеним стандартам і критеріям.

Навчання та вдосконалення.

  • Встановлення механізмів зворотного зв'язку, моніторингу та вдосконалення. Це передбачає залучення в активний процес навчання, де налаштування набору даних відбувається на основі відгуків та попередньої взаємодії.
  • Сприяння адаптації та доповненню домену. Налаштування моделі за допомогою доменних даних зменшує галюцинації шляхом знайомства моделі з доменними шаблонами та прикладами.

Покращення контексту та даних.

  • Включення зовнішньої бази даних. Надання доступу до зовнішніх джерел даних під час процесу прогнозування збагачує знання моделі.
  • Використання інженерії контекстуальних вказівок. Розробка вказівок, які включають чіткі інструкції, контекстуальні підказки або конкретні методи рамок, допомагає в генеруванні великих мовних моделей.

Висновки

На відміну від баз даних або пошукових систем, великі мовні моделі не мають змоги цитувати свої джерела, оскільки вони генерують текст шляхом екстраполяції з наданого промпту (технічне завдання для ШІ).

Щоб зменшити ризики, компанії можуть запровадити попередню обробку та контроль введення, регулювання конфігурації та поведінки моделі, механізми навчання та вдосконалення, покращення контексту та знань. Це допоможе мінімізувати галюцинації, покращити якість та достовірність результатів.