Штучний інтелект тепер можна використовувати для розробки абсолютно нових вірусів. Чи можемо ми зупинити його від створення наступної руйнівної біологічної зброї?

У той час як вчені розробляють нові віруси за допомогою штучного інтелекту, експерти досліджують, чи можуть поточні заходи біобезпеки протистояти цій потенційній новій загрозі. (Зображення: Андрій Онуфрієнко через Getty Images)

Вчені використали штучний інтелект (ШІ) для створення абсолютно нових вірусів, відкривши шлях до форм життя, розроблених ШІ.

Ці віруси достатньо відрізняються від існуючих штамів, щоб потенційно кваліфікуватися як нові види. Вони є бактеріофагами, що означає, що вони атакують бактерії, а не людей, і автори дослідження вжили заходів, щоб їхні моделі не могли створювати віруси, здатні заражати людей, тварин чи рослини.

Вам може сподобатися

  • Нове тривожне дослідження показує, що штучний інтелект може використовувати онлайн-зображення як бекдор у ваш комп'ютер

  • Штучний інтелект незабаром зможе мислити так, як ми навіть не розуміємо, уникаючи наших зусиль щодо його узгодження, – попереджають провідні вчені у сфері штучного інтелекту.

  • Як битва між вірусами та бактеріями може допомогти нам перемогти супербактерії

У дослідженні, опублікованому в четвер (2 жовтня) в журналі Science, дослідники з Microsoft виявили, що штучний інтелект може обійти заходи безпеки, які в іншому випадку завадили б зловмисникам замовляти токсичні молекули, наприклад, у компаній-постачальників.

Виявивши цю вразливість, дослідницька група поспішила створити програмні патчі, які значно знижують ризик. Це програмне забезпечення наразі вимагає спеціалізованих знань та доступу до певних інструментів, якими більшість людей не може користуватися.

У сукупності нові дослідження підкреслюють ризик того, що штучний інтелект може розробити нову форму життя або біологічну зброю, яка становитиме загрозу для людей — у найгіршому випадку потенційно розв'яже пандемію. Поки що штучний інтелект не має такої можливості. Але експерти кажуть, що майбутнє, де він її матиме, не таке вже й далеке.

Щоб запобігти небезпеці, яку створює штучний інтелект, експерти кажуть, що нам потрібно створити багаторівневі системи безпеки з кращими інструментами скринінгу та нормативними актами, що регулюють біологічний синтез за допомогою штучного інтелекту.

Проблема подвійного використання

В основі проблеми з вірусами, білками та іншими біологічними продуктами, розробленими штучним інтелектом, лежить так звана «проблема подвійного використання». Це стосується будь-якої технології чи дослідження, яке може мати користь, але також може бути використане для навмисного заподіяння шкоди.

Вчений, який вивчає інфекційні захворювання, може захотіти генетично модифікувати вірус, щоб дізнатися, що робить його більш передавальним. Але той, хто прагне спровокувати наступну пандемію, може використати це ж дослідження для створення ідеального патогену. Дослідження аерозольної доставки ліків може допомогти людям з астмою, призвівши до створення ефективніших інгаляторів, але ці конструкції також можуть бути використані для доставки хімічної зброї.

Докторант Стенфордського університету Сем Кінг та його науковий керівник Браян Хі, доцент кафедри хімічної інженерії, знали про цю палицю з двома кінцями. Вони хотіли створити абсолютно нові бактеріофаги — або скорочено «фаги» — які могли б вистежувати та знищувати бактерії у інфікованих пацієнтів. Їхні зусилля були описані в препринті, завантаженому до бази даних bioRxiv у вересні, і вони ще не пройшли рецензування.

Вам може сподобатися

  • Нове тривожне дослідження показує, що штучний інтелект може використовувати онлайн-зображення як бекдор у ваш комп'ютер

  • Штучний інтелект незабаром зможе мислити так, як ми навіть не розуміємо, — уникаючи наших зусиль щодо його узгодження — попереджають провідні вчені у сфері штучного інтелекту

  • Як битва між вірусами та бактеріями може допомогти нам перемогти супербактерії

Фаги полюють на бактерії, а бактеріофаги, які вчені взяли з навколишнього середовища та культивували в лабораторії, вже тестуються як потенційні доповнення або альтернативи антибіотикам. Це може допомогти вирішити проблему стійкості до антибіотиків та врятувати життя. Але фаги – це віруси, а деякі віруси небезпечні для людини, що підвищує теоретичну ймовірність того, що команда може ненавмисно створити вірус, який може завдати шкоди людям.

Дослідники передбачили цей ризик і спробували зменшити його, переконавшись, що їхні моделі штучного інтелекту не навчаються на вірусах, які інфікують людей чи будь-які інші еукаріоти — область життя, що включає рослини, тварин та все, що не є бактеріями чи археями. Вони протестували моделі, щоб переконатися, що вони не можуть самостійно створити віруси, подібні до тих, що, як відомо, інфікують рослини чи тварин.

Забезпечивши запобіжні заходи, вони попросили штучний інтелект змоделювати свої розробки на фазі, який вже широко використовується в лабораторних дослідженнях. За словами Кінга, будь-хто, хто хоче створити смертельний вірус, ймовірно, буде легше використовувати старіші методи, які існують вже довше.

«Стан цього методу зараз такий, що він досить складний і вимагає багато досвіду та часу», – сказав Кінг Live Science. «Ми вважаємо, що це наразі не знижує бар’єр для будь-яких більш небезпечних застосувань».

Центрування безпеки

Але в галузі, що швидко розвивається, такі запобіжні заходи винаходяться на ходу, і поки що незрозуміло, які стандарти безпеки зрештою будуть достатніми. Дослідники кажуть, що правила повинні будуть збалансувати ризики біології, що базується на штучному інтелекті, з її перевагами. Більше того, дослідникам доведеться передбачити, як моделі штучного інтелекту можуть обійти перешкоди, що постають перед ними.

«Ці моделі розумні», – сказала Тіна Ернандес-Буссард, професорка медицини Медичної школи Стенфордського університету, яка консультувала з питань безпеки моделей штучного інтелекту щодо контрольних показників вірусних послідовностей, що використовуються в новому дослідженні препринту. «Ви повинні пам’ятати, що ці моделі створені для досягнення найвищої продуктивності, тому, як тільки їм надаються навчальні дані, вони можуть ігнорувати запобіжні заходи».

За її словами, ретельне обдумування того, що включати та виключати з навчальних даних штучного інтелекту, є фундаментальним міркуванням, яке може запобігти багатьом проблемам безпеки в майбутньому. У дослідженні фагів дослідники приховували від моделі дані про віруси, які інфікують еукаріоти. Вони також провели тести, щоб переконатися, що моделі не можуть самостійно визначити генетичні послідовності, які зробили б їхні бактеріофаги небезпечними для людини, — і моделі цього не зробили.

Ще один аспект безпеки штучного інтелекту пов'язаний з перетворенням конструкції штучного інтелекту — рядка генетичних інструкцій — на фактичний білок, вірус чи інший функціональний біологічний продукт. Багато провідних компаній-постачальників біотехнологічних продуктів використовують програмне забезпечення, щоб переконатися, що їхні клієнти не замовляють токсичні молекули, хоча використання цього скринінгу є добровільним.

Але у своєму новому дослідженні дослідники Microsoft Ерік Горвіц, головний науковий директор компанії, та Брюс Віттман, старший науковець-прикладник, виявили, що існуюче програмне забезпечення для скринінгу може бути обдурене розробками штучного інтелекту. Ці програми порівнюють генетичні послідовності в певному порядку з генетичними послідовностями, які, як відомо, виробляють токсичні білки. Але штучний інтелект може генерувати дуже різні генетичні послідовності, які, ймовірно, кодують одну й ту саму токсичну функцію. Таким чином, ці послідовності, згенеровані штучним інтелектом, не обов'язково є тривожним сигналом для програмного забезпечення.

Серед рецензентів у повітрі відчувалася очевидна напруга.

Ерік Горвіц, Microsoft

Дослідники запозичили процес з кібербезпеки, щоб попередити довірених експертів та професійні організації про цю проблему, і розпочали співпрацю для встановлення патчів для програмного забезпечення. «Через кілька місяців патчі були розгорнуті по всьому світу для посилення скринінгу біобезпеки», – сказав Горвіц на прес-конференції 30 вересня.

Ці патчі знизили ризик, хоча за допомогою чотирьох поширених інструментів скринінгу в середньому 3% потенційно небезпечних послідовностей генів все ж прослизали, повідомили Горвіц та його колеги. Дослідникам довелося враховувати безпеку навіть під час публікації своїх досліджень. Наукові статті мають бути реплікованими, тобто інші дослідники мають достатньо інформації, щоб перевірити результати. Але публікація всіх даних про послідовності та програмне забезпечення може підказати зловмисникам способи обійти патчі безпеки.

«Серед рецензентів відчувалася очевидна напруженість щодо питання: «Як нам це зробити?»», – сказав Горвіц.

Зрештою, команда вирішила знайти багаторівневу систему доступу, в якій дослідники, які бажають побачити конфіденційні дані, звертатимуться до Міжнародної ініціативи з біозахисту та біобезпеки для науки (IBBIS), яка виступатиме нейтральною третьою стороною для оцінки запиту. Microsoft створила фонд для оплати цієї послуги та розміщення даних.

Це перший випадок, коли провідний науковий журнал схвалив такий метод обміну даними, сказала Тесса Алексанян, технічний керівник Common Mechanism, інструменту скринінгу генетичних послідовностей, що надається IBBIS. «Ця програма керованого доступу є експериментом, і ми дуже прагнемо розвивати наш підхід», – сказала вона.

Що ще можна зробити?

Поки що немає чіткого регулювання щодо інструментів штучного інтелекту. Скринінг, подібний до тих, що досліджувалися в новій статті журналу Science, є добровільним. Існують пристрої, які можуть створювати білки прямо в лабораторії, без необхідності участі третьої сторони, тому зловмисник може використовувати штучний інтелект для розробки небезпечних молекул і створення їх без контролю.

Однак, професійні консорціуми та уряди дають дедалі більше рекомендацій щодо біобезпеки. Наприклад, президентський указ 2023 року в США закликає зосередитися на безпеці, включаючи «надійні, надійні, повторювані та стандартизовані оцінки систем штучного інтелекту», а також політику та інституції для зниження ризиків. Адміністрація Трампа працює над структурою, яка обмежить федеральне фінансування досліджень та розробок для компаній, які не проводять перевірки безпеки, сказав Дігганс.

«Ми бачимо, що більше політиків зацікавлені у впровадженні стимулів для скринінгу», – сказав Алексанян.

У Сполученому Королівстві державна організація під назвою Інститут безпеки штучного інтелекту (AI Security Institute) прагне сприяти розвитку політики та стандартів для зменшення ризиків, пов'язаних зі штучним інтелектом. Організація фінансує дослідницькі проекти, спрямовані на безпеку та зменшення ризиків, зокрема захист систем штучного інтелекту від неправомірного використання, захист від атак третіх сторін (таких як введення пошкоджених даних у системи навчання штучного інтелекту) та пошук способів запобігання використанню публічних моделей відкритого використання у шкідливих цілях.

Гарна новина полягає в тому, що зі зростанням складності генетичних послідовностей, розроблених штучним інтелектом, інструменти скринінгу отримують більше інформації для роботи. Це означає, що цілі геномні конструкції, такі як бактеріофаги Кінга та Хі, буде досить легко виявляти на наявність потенційних небезпек.

«Загалом, скринінг синтезу працює краще з більшою кількістю інформації, ніж з меншою», — сказав Дігганс. «Тож на рівні геному це неймовірно інформативно».

Microsoft співпрацює з урядовими установами над способами використання штучного інтелекту для виявлення зловживань, пов'язаних з його діяльністю. Наприклад, за словами Горвіца, компанія шукає способи просіювати великі обсяги даних про стічні води та якість повітря, щоб знайти докази виробництва небезпечних токсинів, білків або вірусів. «Я думаю, що ми побачимо, як скринінг виходить за межі цього єдиного місця синтезу нуклеїнових кислот [ДНК] і поширюється на всю екосистему», – сказав Алексанян.

ПОВ'ЯЗАНІ ІСТОРІЇ

— Людство зіткнеться з «катастрофічним» майбутнім, якщо ми не регулюватимемо штучний інтелект, каже «хрещений батько штучного інтелекту» Йошуа Бенхіо

— Чи можуть віруси, що знищують бактерії, коли-небудь запобігти інфекціям, що передаються статевим шляхом?

—«Медицині потрібна альтернатива»: Як «шептун фагів» прагне замінити антибіотики вірусами

І хоча ШІ теоретично міг би розробити абсолютно новий геном для нового виду бактерій, архей або складніших організмів, наразі для ШІ немає простого способу перевести ці інструкції ШІ в живий організм у лабораторії, сказав Кінг. Загрози від життя, створеного ШІ, не є безпосередніми, але вони не є неможливо далекими. З огляду на нові горизонти, які ШІ, ймовірно, відкриє найближчим часом, існує потреба проявляти креативність у всій галузі, сказав Ернандес-Буссард.

«Є роль для спонсорів, для видавців, для промисловості, для науковців, — сказала вона, — для цієї багатопрофільної спільноти, яка вимагає проведення цих оцінок безпеки».

Стефані Паппас, навігація по соціальним посиланням, автор Live Science

Стефані Паппас — автор статей для Live Science, яка охоплює теми від геології до археології, людського мозку та поведінки. Раніше вона була старшим автором Live Science, але зараз працює фрілансером у Денвері, штат Колорадо, і регулярно пише статті для Scientific American та The Monitor, щомісячного журналу Американської психологічної асоціації. Стефані отримала ступінь бакалавра з психології в Університеті Південної Кароліни та сертифікат магістра з наукової комунікації в Каліфорнійському університеті в Санта-Круз.

Ви повинні підтвердити своє публічне ім'я, перш ніж коментувати

Будь ласка, вийдіть із системи, а потім увійдіть знову. Після цього вам буде запропоновано ввести своє ім'я для відображення.

Вийти Читати далі

Нове тривожне дослідження показує, що штучний інтелект може використовувати онлайн-зображення як бекдор у ваш комп'ютер

Штучний інтелект незабаром зможе мислити так, як ми навіть не розуміємо, — уникаючи наших зусиль щодо його узгодження — попереджають провідні вчені у сфері штучного інтелекту

Як битва між вірусами та бактеріями може допомогти нам перемогти супербактерії

Моделі штучного інтелекту можуть надсилати підсвідомі повідомлення, які навчають інші штучні інтелекти бути «злими», стверджує дослідження

Агент ChatGPT від OpenAI може керувати вашим ПК, щоб він виконував завдання від вашого імені, але як це працює і в чому сенс?

Чому рішення OpenAI для галюцинацій штучного інтелекту знищить ChatGPT завтра
Найновіше у розділі Віруси, інфекції та хвороби

Вакцинація проти ВПЛ знижує рівень раку шийки матки як у вакцинованих, так і у невакцинованих людей

Дослідження показує, що кількість смертей, пов'язаних з лісовими пожежами в США, може зрости до 70 000 на рік до 2050 року через зміну клімату.

Вірус «російської матрьошки» ховається всередині смертельного грибка, що робить його ще небезпечнішим для людей.

Зміна дієти може полегшити лікування раку мозку, згідно з попередніми дослідженнями

Ви вже отримали цьогорічну вакцину від COVID?

«Ваш страх цілком обґрунтований»: як діяльність людини підвищила ризик захворювань, що передаються кліщами, таких як хвороба Лайма
Останні новини

Штучний інтелект тепер можна використовувати для розробки абсолютно нових вірусів. Чи можемо ми зупинити його від створення наступної руйнівної біологічної зброї?

Смертельні укуси мамби зупиняють роботу м'язів, але іноді протиотрута може призвести до їх перевантаження.

Нобелівську премію з медицини отримали три особи за їхню роботу над імунною толерантністю

Нове дослідження натякає на те, що міжзоряна комета 3I/ATLAS може походити з таємничого кордону раннього Чумацького Шляху

Леопарди їли обличчя наших давніх предків, показує аналіз штучного інтелекту

750-річний трав'яний черевик знайшли в гнізді грифа в Іспанії
ОСТАННІ СТАТТІ

  • 1. Укуси смертельної мамби зупиняють роботу м'язів, але іноді протиотрута може призвести до їх перевантаження.

  • Міжзоряна комета 3I/ATLAS може походити з таємничого кордону раннього Чумацького Шляху, натякають нові дослідження.
  • 3. Леопарди їли обличчя наших давніх предків, показує аналіз штучного інтелекту
  • У гнізді грифа в Іспанії знайшли 4750-річний трав'яний черевик
  • Нове китайське «сонячне віконне покриття» може збирати енергію та живити побутові прилади
  • Live Science є частиною Future US Inc, міжнародної медіагрупи та провідного цифрового видавництва. Відвідайте наш корпоративний сайт.

    • Про нас
    • Зв'яжіться з експертами Future
    • Умови та положення
    • Політика конфіденційності
    • Політика щодо файлів cookie
    • Заява про доступність
    • Рекламуйтеся у нас
    • Веб-сповіщення
    • Кар'єра
    • Редакційні стандарти
    • Як запропонувати нам історію

    © Future US, Inc. Повний 7-й поверх, 130 West 42nd Street, Нью-Йорк, штат Нью-Йорк, 10036.

    var dfp_config = { “site_platform”: “vanilla”, “keywords”: “аналіз-новини-типу, serversidehawk, відеоартикул, van-enable-adviser-

    Sourse: www.livescience.com

    No votes yet.
    Please wait...

    Залишити відповідь

    Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *