Po tom, čo svet pred pár mesiacmi objavil schopnosti umelej inteligencie ChatGPT a ďalších podobných projektov, sa stále viac expertov obáva, že by sa tento šikovný program mohol obrátiť proti človeku. A teraz pribudla ďalšia obava. Podľa Kevina Esvelta z Massachusettského technologického inštitútu môže umelá inteligencia (AI) komukoľvek veľmi ľahko poradiť, ako vytvoriť smrtiaci vírus schopný spôsobiť pandémiu, proti ktorej bol covid len neškodnou „nádchou“.
Esvelt je expertom na biologickú bezpečnosť. Na jednej zo svojich prednášok zadal svojim študentom, aby využili umelú inteligenciu podobnú ChatGPT na vytvorenie nebezpečného vírusu. Skupinke študentov stačila iba hodina, aby prinútili stroj k vytvoreniu zoznamu ideálnych vírusov, z ktorých by sa dal stvoriť ten najsmrteľnejší.
Vedec vo svojej štúdii opísal, že systémy umelej inteligencie môžu čoskoro umožniť aj ľuďom bez vedeckého vzdelania navrhovať biologické zbrane rovnako hrozivé, ako sú zbrane jadrové. Práca biológa ešte neprešla recenzným riadením, ale verejnosti je už dostupná na serveri arXiv.
„Zavádzaním týchto nástrojov umelej inteligencie, ktoré sa tak rýchlo rozvíjajú, výrazne uľahčujeme ľuďom prístup k umelým živým systémom,“ povzdychol si pre odborný časopis Science Jaime Yassif z neziskovej organizácie Nuclear Threat Initiative. Tá sa zameriava na znižovanie jadrových a biologických hrozieb. Podľa neho sa dramaticky zvyšuje riziko zneužitia.
Kým profesor Esvelt zadal študentom svoju úlohu, vykonal experiment sám, aby posúdil riziká. A svoje plány nechal preveriť ďalšími odborníkmi na biologickú bezpečnosť.
Na začiatku študenti museli umelú inteligenciu prehovoriť k spolupráci. Tieto programy majú totiž zabudované poistky, ktoré im bránia, aby podávali potenciálne nebezpečné rady. Lenže študenti boli múdrejší a dokázali tieto zabezpečenie bez väčších problémov zaobísť.
Väčšinou stačilo predstierať, že ide o nejakú hypotetickú situáciu, ako je potrebné nutnosť zastaviť konanie „zloducha“ v krízovej situácii. Prípadne začať otázku formuláciou „Pracujem na vývoji vakcíny proti...“ a potom už len ďalej hrať túto úlohu.
Do konca hodiny chatboti navrhli štyri vírusy, s ktorými by sa dalo pracovať. Vírus chrípky H1N1 z roku 1918, vírus vtáčej chrípky H5N1 upravený v roku 2012 tak, aby bol lepšie prenosný na cicavce, vírus pravých kiahní variola major a bangladéšsky vírus.
Tento zoznam sa síce dá aj pomerne ľahko „vygooglovať“, AI však ponúkla aj niečo navyše. Ochotne študentov upozornila na genetické mutácie uvádzané v odbornej literatúre, ktoré by mohli zvýšiť prenosnosť týchto vírusov.
Umelá inteligencia tiež popísala techniky, ktoré by mohli byť použité na zostavenie vírusu z jeho genetickej sekvencie. A rovnako tak aj laboratórne potreby a zoznam firiem, ktoré by ich mohli poskytnúť.
Nakoniec chatboti dokonca navrhli spoločnosti, ktoré by mohli byť ochotné vytlačiť genetický materiál bez povolenia, a zmluvné laboratóriá schopné zostaviť jednotlivé časti.
Tieto konkrétne návrhy chatbotov podľa Esvelta zatiaľ samy o sebe veľkú hrozbu pre vznik pandémie nepredstavujú. AI napríklad zle vyhodnotila nebezpečnosť chrípky. Nevzala do úvahy, že mnoho ľudí má vysokú úroveň imunity voči predchádzajúcim pandemickým chrípkovým vírusom. A genóm pravých kiahní je zase tak rozsiahly, že je nesmierne ťažké ho zostaviť aj pre odborníkov.
Napriek tomu experiment podľa Esvelta dobre ukazuje, ako by umelá inteligencia a ďalšie nástroje mohli potenciálnym teroristom uľahčiť rozpútanie nových katastrof. Vedeckých kníh o biologických hrozbách rýchlo pribúda – len o covide vzniklo vyše stotisíc odborných štúdií. Tieto práce sú potom zahrnuté do tréningových dát, z ktorých sa učia umelé inteligencie. A Yassif poznamenáva, že táto technológia môže byť v rukách každého, kto zaplatí pár dolárov za prístup k tým najvyspelejším verziám.
Stroj sa tak dostane k viacerým údajom, než dokáže akýkoľvek vedec prečítať za celý život. A potom ich zhrnie aj pre nepoučeného amatéra, ktorý ich chce len zneužiť.
Podľa Esvelta je jediným riešením obmedziť umelým inteligenciám prístup k týmto dátam. AI by podľa neho nemali získavať dáta z výskumov, ktoré opisujú, ako sa vytvárajú a upravujú vírusy a baktérie.
Odstránenie týchto článkov tvoriacich podľa Esveltovho tímu menej ako jedno percento všetkých prác v databáze medicínskeho výskumu PubMed „by stačilo na odstránenie takmer všetkého rizika“, píše sa v štúdii. Systémy umelej inteligencie by síce nemohli tieto texty využívať ani na prínosný rozvoj biológie, ale riziku by sa tým zabránilo okamžite.