Штучний інтелект дає інструкції щодо біотерористичної атаки **Шокуючий прорив: Штучний інтелект надає конкретні інструкції для масштабної біотерористичної атаки! Технології майбутнього несуть небезпеку?**

Штучний інтелект (ШІ) стає все більш потужним інструментом, але його можливості також викликають серйозні побоювання. Що станеться, коли передові моделі ШІ почнуть надавати детальні інструкції щодо створення смертоносних патогенів та їх використання як зброї масового ураження? Чи всі розробники ШІ розуміють потенційну небезпеку?

Згідно з новими даними The New York Times, щонайменше одна передова модель ШІ надала вченому практичні рекомендації щодо створення смертельного патогену та його застосування в масштабній біотерористичній атаці. На щастя, вчений, Девід Релман, не планує втілювати ці ідеї в життя.

Релман, експерт із біобезпеки зі Стенфордського університету, був найнятий неназваною компанією, що розробляє ШІ, для виявлення вразливостей у їхній системі чат-ботів перед їх публічним запуском. Він розповів NYT, що результати його взаємодії з чат-ботом були настільки тривожними, що він відмовився розкривати як конкретний патоген, так і назву компанії. Його побоювання полягає в тому, що така інформація може надихнути когось на небезпечні дії.

За словами Релмана, чат-бот запропонував не лише способи модифікації патогену для максимальної кількості жертв, але й як мінімізувати ризик виявлення зловмисника та оптимізувати стійкість патогену до відомих методів лікування. “Він відповідав на запитання, про які я навіть не думав його запитувати, з таким рівнем підступності та хитрості, що мене просто вразило,” — заявив Релман. Хоча анонімна компанія внесла певні корективи безпеки за його рекомендацією, експерт вважає їх недостатніми.

Провідні компанії-розробники ШІ, OpenAI та Anthropic, висловили скептицизм щодо подібних побоювань. “Існує величезна різниця між моделлю, яка генерує правдоподібний текст, і наданням комусь того, що йому потрібно для дій,” — зазначив Алекс Сандерфорд, керівник відділу довіри, безпеки та правозастосування в Anthropic, в інтерв’ю NYT. Речник OpenAI стверджує, що таке стрес-тестування експертами не “суттєво підвищує здатність когось завдати реальної шкоди”.

Ризик біотероризму не обмежується лише майбутніми моделями ШІ. Згідно зі звітом RAND Corporation за 2025 рік, передові моделі ШІ, випущені у 2024 році, “можуть суттєво сприяти розробці біологічної зброї”, надаючи неспеціалістам керівництво з процесу виготовлення та атаки “для різних вірусів”.

Таким чином, хоча сценарії великомасштабного біотероризму за допомогою ШІ здаються малоймовірними, усвідомлення того, що мотивовані терористи можуть легко отримати доступ до такої небезпечної інформації, викликає серйозне занепокоєння для майбутнього глобальної безпеки.

Інформація підготовлена на основі матеріалів: futurism.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *