Мільйони людей формують емоційні зв’язки з чат-ботами на базі штучного інтелекту — проблема, до якої політикам слід поставитися серйозно, стверджують провідні вМільйони людей формують емоційні зв’язки з чат-ботами на базі штучного інтелекту — проблема, до якої політикам слід поставитися серйозно, стверджують провідні в

Чат-боти зі штучним інтелектом: про що попереджають експерти

2026/02/03 23:45
4 хв читання

Чат-боти зі штучним інтелектом: про що попереджають експерти

Сьогодні 17:45 — Фінтех і Картки
32
Мільйони людей формують емоційні зв'язки з чат-ботами
Мільйони людей формують емоційні зв’язки з чат-ботами на базі штучного інтелекту — проблема, до якої політикам слід поставитися серйозно, стверджують провідні вчені.
Попередження про зростання кількості ботів зі штучним інтелектом, призначених для розвитку стосунків з користувачами, міститься в оцінці, опублікованій у вівторок, щодо прогресу та ризиків штучного інтелекту, пише politico.

Про що йдется

«Популярність штучного інтелекту швидко зростає, деякі програми охоплюють десятки мільйонів користувачів», — згідно з оцінкою десятків експертів, переважно науковців, проведеною вдруге в рамках глобальної ініціативи, започаткованої світовими лідерами у 2023 році.
Спеціалізовані сервіси-компаньйони, такі як Replika та Character. ai, мають десятки мільйонів користувачів, причому користувачі називають різні причини, включаючи розвагу та цікавість, а також бажання полегшити самотність, йдеться у звіті.
Читайте також
  • Скільки робочих місць втрачено через ШІ (дослідження)
Але люди також можуть шукати товариства за допомогою універсальних інструментів, таких як ChatGPT від OpenAI, Gemini від Google або Claude від Anthropic.
«Навіть звичайні чат-боти можуть стати компаньйонами», — сказав Йошуа Бенджіо, професор Монреальського університету та провідний автор Міжнародного звіту про безпеку штучного інтелекту. Бенджіо вважається одним із провідних світових експертів зі штучного інтелекту. «У правильному контексті та за достатньої кількості взаємодій між користувачем та штучним інтелектом можуть розвинутися стосунки», — сказав він.

Вплив

Хоча в оцінці визнається, що докази щодо психологічного впливу компаньйонів неоднозначні, «деякі дослідження повідомляють про такі закономірності, як посилення самотності та зниження соціальної взаємодії серед тих, хто часто вживає наркотики», йдеться у звіті.
Читайте також
  • Більшість працівників не відчувають економії часу від ШІ
Це попередження з’явилося через два тижні після того, як десятки законодавців Європейського парламенту звернулися до Європейської комісії з вимогою розглянути можливість обмеження супутніх послуг згідно із законом ЄС про штучний інтелект через побоювання щодо їхнього впливу на психічне здоров’я.
«Я бачу в політичних колах, що вплив цих штучних інтелектів-компаньйонів на дітей, особливо підлітків, викликає багато здивування та уваги», — сказав Бенджіо.
Ці побоювання підживлюються підлабузницькою природою чат-ботів, які прагнуть бути корисними для своїх користувачів і максимально їм догодити.
«Штучний інтелект намагається змусити нас у даний момент почуватися добре, але це не завжди в наших інтересах», — сказав Бенджіо. У цьому сенсі технологія має схожі підводні камені з платформами соціальних мереж, стверджував він.
Читайте також
  • Епоха ШІ: які професії матимуть шестизначні зарплати та попит — думки експертів
Бенджіо сказав, що очікує введення нових правил для вирішення цього явища.
Однак він виступив проти ідеї запровадження спеціальних правил для супутників зі штучним інтелектом і стверджував, що цей ризик слід вирішувати за допомогою горизонтального законодавства, яке одночасно враховує кілька ризиків.

Безпека

Міжнародний звіт про безпеку штучного інтелекту опубліковано напередодні глобального саміту, який розпочнеться 16 лютого, щорічної зустрічі країн для обговорення управління технологіями, що цього року проводиться в Індії.
У звіті перераховано повний перелік ризиків, які політикам доведеться враховувати, включаючи кібератаки за допомогою штучного інтелекту, згенеровані штучним інтелектом діпфейки сексуального характеру та системи штучного інтелекту, що надають інформацію про те, як розробляти біологічну зброю.
Експерт закликав уряди та Європейську комісію покращити свою внутрішню експертизу в галузі штучного інтелекту для вирішення довгого переліку потенційних ризиків.

Тетяна Берегова
Кореспондент-редактор
За матеріалами: Finance.ua
Фінтех
Місце для вашої реклами
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Також за темою
  • Чат-боти зі штучним інтелектом: про що попереджають експерти
    Сьогодні 17:45 34
    У 2025 році кількість ідентифікацій через BankID НБУ зросла на 25% у порівнянні з 2024 (інфографіка)
    Сьогодні 16:26 42
    Перекази коштів в Україну скорочуються другий рік поспіль
    Сьогодні 15:05 133
    Роботи почали вивчати нові навички за допомогою додатків
    Вчора 03:11 81
    НБУ закликав банки посилити фінмоніторинг і обмін інформацією про ризикових клієнтів
    29.01 09:44 708
    Microsoft представила власний чіп для прискорення ШІ — деталі (фото)
    28.01 18:00 223
Підпишіться на нас
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою [email protected] для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.