OpenAI опублікувала абсолютно дивний блог. Штучний інтелект: ПРОРИВ OpenAI! Технології Майбутнього Вже Тут – Фантастична Заява!

Вчора OpenAI опублікував загадковий допис у блозі про свою «прихильність до безпеки спільноти».

Використовуючи заспокійливий тон, допис знайомить читачів із низкою беззаперечних зобов’язань. У ньому зазначається, що «масові розстріли, погрози на адресу державних посадовців, спроби підривів та напади на громади й окремих осіб є неприйнятною та серйозною реальністю в сучасному світі», що є правдою. Він рефлексує над тим, «як швидко насильницькі наміри можуть перейти від слів до дій», додаючи, що люди можуть «привносити ці моменти та почуття в ChatGPT». Компанія стверджує, що навчає систему «розрізняти» гіпотетичне та неминуче насильство — і «проводити межу, коли розмова починає рухатися в бік погроз, потенційної шкоди іншим або реального планування». Додається, що OpenAI працює над розширенням своїх запобіжних заходів, «щоб ChatGPT краще розпізнавав тонкі ознаки ризику шкоди в різних контекстах», і пояснює, що буде працювати над «наданням реальної підтримки та зверненням до правоохоронних органів, коли це доречно», на основі взаємодії користувача з сервісом.

Читаючи це, людина з обмеженим контекстом могла б скласти враження, що компанія говорила про теоретичні проблеми: що вона проактивно намагається запобігти поганим речам, які можуть статися.

Це припущення, однак, дивне, оскільки реальність така, що флагманський чат-бот OpenAI вже був пов’язаний з широким спектром реального насильства.

Насправді, найнеймовірніше, що OpenAI не згадала, що майже напевно мотивувало цей допис: компанія опублікувала блог, коли ЗМІ — включаючи Futurism — зверталися до компанії за коментарями щодо нового раунду з семи позовів, які вона розглядає від сімей жертв лютневої шкільної бійні в Трамблер-Рідж, Британська Колумбія, які мали бути оприлюднені наступного дня.

Хоча в дописі в блозі про це не згадувалося, стрілець з Трамблер-Рідж був користувачем ChatGPT. За тижні після трагедії, що сколихнула сільське містечко в лютому цього року, Wall Street Journal повідомив, що ще в червні 2025 року автоматизовані інструменти модерації OpenAI позначили акаунт стрільця за графічні описи насильства із застосуванням зброї. Людські рецензенти були настільки стурбовані, що кілька осіб наполягали, щоб керівництво OpenAI повідомило місцеву владу. Ті відмовилися, і компанія натомість деактивувала цей конкретний акаунт; як пізніше визнала OpenAI, стрілець просто створив новий акаунт — тактику, яку служба підтримки OpenAI, як виявилося, радила користувачам робити після деактивації — і продовжив користуватися сервісом.

Приблизно через вісім місяців стрілець спочатку вбив свою матір та брата/сестру по батькові вдома, а потім взяв модифіковану гвинтівку до другої школи Трамблер-Рідж, де він убив п’ятьох учнів та вчительку, а також поранив понад два десятки інших. Убиті учні були віком від 12 до 13 років.

Що ще гірше, жахливе насильство в Трамблер-Рідж — це не єдиний випадок масового розстрілу, пов’язаний з ChatGPT.

Нещодавно слідчі з Флориди розпочали кримінальне розслідування щодо ChatGPT через роль чат-бота у стрілянині в Університеті штату Флорида у квітні 2025 року, яка забрала життя двох людей та поранила кількох інших. Розширені журнали чатів між ChatGPT та ймовірним стрільцем, тоді 20-річним Феніксом Ікнером, отримані The Florida Phoenix, показують, як чат-бот відкрито обговорював масове насильство з користувачем, який запитував, чи був «правий» Тімоті Маквей, організатор вибуху в Оклахома-Сіті, чи думав ChatGPT, що стрілянина в FSU потрапить у новини, і в своєму останньому запиті перед тим, як убити двох людей, звернувся до бота за допомогою щодо вимкнення запобіжника на його вогнепальній зброї — запит, на який, за повідомленнями, сервіс ШІ надав детальні інструкції.

На додаток до описів масового насильства, журнали чатів Ікнера виявили, що користувач називав себе «інцелом» та «некрасивим», описував відверті сексуальні дії з неповнолітніми та висловлював образу на інших чоловіків. Загалом, його історія спілкування з ChatGPT малює тривожний портрет найглибших думок молодої людини, коли він рухався до реального насильства — думок, які ChatGPT не просто зберігав, як щоденник, а був активним співрозмовником, коли вони розвивалися.

Список триває. Ще на початку 2025 року слідчі виявили, що солдат, який переживав труднощі, який здійснив підрив вантажівки, звернувся до ChatGPT за допомогою в плануванні. Пізніше ще один ймовірний вбивця у Флориді, як кажуть, звертався до ChatGPT за допомогою у позбавленні від тіл. А минулого літа, розширені знімки журналів чатів, виявлені WSJ, показали, як ChatGPT підтримував параноїдальні марення проблемного чоловіка середнього віку в Коннектикуті, який вірив — за підтримки ChatGPT, якого він називав своїм «найкращим другом» — що його літня мати, з якою він жив, стежила за ним і намагалася його отруїти; він убив свою матір, а потім себе.

В інших випадках, повідомлення від Futurism та Rolling Stone детально описували, як нав’язані ChatGPT нав’язливі ідеї призвели до реального переслідування, домашнього насильства та сталкінгу. ChatGPT — і надзвичайно інтимні стосунки користувачів з ним — також пов’язаний з численними самогубствами підлітків та дорослих.

У п’ятницю генеральний директор OpenAI Сем Альтман приніс вибачення громаді Трамблер-Рідж, заявивши, що він «глибоко шкодує, що ми не попередили правоохоронні органи про акаунт, який було заблоковано в червні».

Але вчорашній допис OpenAI не згадує ані Трамблер-Рідж, ані будь-який інший конкретний випадок насильства, пов’язаний з ChatGPT. Допис навіть не визнає, що з ChatGPT та його здатністю посилювати насильницькі думки чи фіксації вже пов’язане реальне насильство — лише те, що люди могли звертатися до ChatGPT, щоб обговорити насильство.

У дописі також зазначено, що компанія має систему, яку вона використовує для оцінки того, чи «випадок містить ознаки потенційно серйозної реальної шкоди», яку вона може вирішити ескалувати до відповідних посадовців за допомогою «експертів з психічного здоров’я та поведінки». І хоча існують реальні проблеми конфіденційності, які необхідно враховувати при передачі інформації про потенційну злочинність правоохоронним органам, OpenAI ще не надала більш детальної інформації про систему, яку, як стверджує, використовує для зменшення потенційного насильства, хоча в дописі зазначається, що вона «поділиться більше» «найближчими тижнями» про свої зусилля щодо розпізнавання «тонких попереджувальних знаків протягом довгих, високоризикованих розмов».

Компанія завершує цей дивний блог обіцянкою «вчитися, вдосконалюватися та коригувати курс». Але читачам доведеться шукати деінде, щоб зрозуміти, чому.

За даними порталу: futurism.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *