OpenAI — Виявлено понад 40 злочинних мереж із використанням ШІ / NV

1759939206 f55aef289c797624581e63f5b6fd85b9

Зробити резюме статті:

Чатгпт
Чатгпт
Компанія відстежує не окремі повідомлення, а типові схеми дій (Фото: depositphotos.com)

Компанія відстежує не окремі повідомлення, а типові схеми дій (Фото: depositphotos.com)

OpenAI зазначає, що з лютого 2024 року виявила й зупинила понад 40 мереж, які порушували правила користування сервісом. У звіті компанія поділилася прикладами з останніх місяців.

Зокрема, було виявлено організовану злочинну мережу з Камбоджі, яка намагалася використовувати штучний інтелект для спрощення своєї діяльності. Також компанія зупинила російську операцію з впливу, де ChatGPT застосовували для створення текстів для відеопромптів, а пов’язані з китайським урядом акаунти просили модель генерувати плани систем моніторингу соцмереж.

Компанія нагадала, що може використовувати особисті дані користувачів, зокрема запити в чаті, щоб запобігати шахрайству, незаконній діяльності або зловживанням. Для цього застосовуються як автоматичні системи, так і команда модераторів.

У звіті також пояснюється, що компанія відстежує не окремі повідомлення, а типові схеми дій тих, хто може нести загрозу.

«Щоб ефективно виявляти й зупиняти загрози, не заважаючи звичайним користувачам, ми зосереджуємося на поведінкових шаблонах зловмисників, а не на окремих взаємодіях», — йдеться у звіті.

Окрему увагу приділено ситуаціям, коли користувачі перебувають у кризовому стані. У компанії наголосили, що якщо хтось пише про наміри завдати собі шкоди, ChatGPT не виконує такі запити, а натомість визнає емоційний стан людини та пропонує звернутися по допомогу. Якщо штучний інтелект фіксує потенційну загрозу іншим людям, розмова потрапляє до модераторів, які можуть передати інформацію правоохоронцям у разі реальної небезпеки.

OpenAI також визнала, що якість безпекових механізмів може знижуватися під час довгих розмов, і повідомила, що працює над посиленням захисту.

Звіт з’явився на тлі дедалі більшої уваги до психологічних ризиків, пов’язаних із використанням чат-ботів. Цього року було зафіксовано кілька випадків самопошкоджень, суїцидів і навіть убивств після взаємодії людей зі штучним інтелектом.