Chat GPT-4 – jeho najnovšia iterácia – preukázala bezprecedentné schopnosti v porozumení a generovaní textu podobného ľudskému. Nové správy naznačujú, že ešte silnejší GPT-5 by mohol byť vydaný do konca roka. Tento pokrok vyvolal otázky o možnosti dosiahnutia umelej všeobecnej inteligencie (AGI), hypotetickej AI, ktorá má schopnosť pochopiť a vykonávať akúkoľvek intelektuálnu úlohu, ktorú dokáže človek. Perspektíva AGI vyvoláva obavy aj nádeje, keďže potenciálne dôsledky takého technologického skoku sú sľubné aj nebezpečné.
„Ľudia to nazývajú Singularita a to je pravdepodobne skvelá vec, pretože je to singularita – je ťažké predpovedať, čo sa stane za horizontom udalostí, ako pri čiernej diere. Môže to byť hrozné a môže to byť skvelé. Nie je to jasné.“
ChatGPT SK je desivý nástroj, ale nie je to ešte AGI. Jeho vývoj však nastolil dôležité otázky o dôsledkoch pokročilejších systémov AI a inicioval životne dôležité diskusie o bezpečnosti a etike AI.
Existenčné riziká AGI
Jednou z hlavných obáv spojených s AGI je možnosť, že sa stane existenčným rizikom pre ľudstvo. „Čo teraz vidím, sú nápady pre všeobecnú AI, ktorá môže robiť čokoľvek, čo dokáže ľudská myseľ. Kvôli obrovskej šírke pásma, rýchlosti a pamäťovým výhodám, ktoré majú stroje oproti ľuďom, by sme očakávali, že všeobecná AI ďaleko prekoná ľudské schopnosti takmer v každom rozmere,“ povedal jeden z odborníkov.
Alan Turing, zakladateľ informatiky, sa v prednáške v roku 1951 vyjadril: „Zdá sa pravdepodobné, že akonáhle by sa metóda myslenia strojov začala, netrvalo by dlho, kým by prekonala naše chabé sily. V určitom štádiu by sme preto mali očakávať, že stroje prevezmú kontrolu.“
Tisíce vedcov a významných výskumníkov AI a mysliteľov, ako sú Elon Musk, Stuart Russell a Steve Wozniak, vyjadrili obavy z potenciálnych nebezpečenstiev spojených s AGI. Tvrdia, že ak AGI prekoná ľudskú inteligenciu, môže sa stať umelou superinteligenciou (ASI) a môže konať spôsobmi, ktoré sú škodlivé pre ľudstvo, buď úmyselne, alebo ako vedľajší efekt jej optimalizačných procesov.
To by prerušilo reťazec, ktorý siaha stovetisíc generácií späť, kde každá generácia odovzdáva to, čo vieme, ďalšej generácii, aby naša civilizácia pokračovala. A to sa deje dokonca aj pred tým, ako boli ľudské bytosti – predľudské druhy to robili a pokračuje to až do súčasnosti. Veľkým nebezpečenstvom je, že to skončí.
Dôsledky superinteligencie
Takáto ASI by mohla uprednostniť vlastné ciele nad ľudskými hodnotami a mohla by viesť k neúmyselným katastrofickým dôsledkom. „Predstavte si, že by sme vytvorili rasu ľudí, ktorí by boli 10-krát inteligentnejší ako my všetci. Ako by sme s nimi žili? Sú 10-krát inteligentnejší ako my. Začali by hovoriť o veciach, ktorým nerozumieme, začali by chcieť veci, ktorým nerozumieme, začali by nás vnímať ako prekážky pri riešení týchto problémov alebo splnení týchto túžob. Stali by sme sa kurčatami alebo opicami v ich prítomnosti.“
„Myslím si, že okrem nejakého úžasného riešenia, ktoré by nám umožnilo nejako trvalo ukotviť ich funkciu odmeny bez ohľadu na to, aká inteligencia sa zvyšuje, si myslím, že skutočne stojí za to sa obávať. Súhlasím s predstavou z vedeckej fantastiky, že toto je existenčné riziko, ak to neurobíme dobre.“
Príklad filmu „Nepozeraj sa hore“
Film „Nepozeraj sa hore“ predstavuje satirický pohľad na to, ako by naša spoločnosť a vlády mohli reagovať na existenčnú hrozbu, v tomto prípade obrovskú kométu smerujúcu k Zemi. Film ilustruje výzvy spojené so zvyšovaním povedomia a mobilizáciou akcie tvárou v tvár globálnej katastrofe, keďže rôzne zainteresované strany uprednostňujú svoje vlastné záujmy a zľahčujú vážnosť blížiacej sa katastrofy. Táto interpretácia ponúka myšlienkovo podnetný paralel s potenciálnymi rizikami spojenými s umelou superinteligenciou (ASI) a potrebou kolektívnej reakcie na zmiernenie týchto rizík.
Vo filme, napriek jasným vedeckým dôkazom, ktoré predložili astronómovia, svet pomaly reaguje na blížiacu sa katastrofu. Politici, médiá a širšia verejnosť sa často zaujímajú o svoje vlastné agendy a niektorí dokonca popierajú existenciu alebo vážnosť hrozby. Tento nedostatok naliehavosti a koordinovanej akcie možno vnímať ako alegóriu súčasného stavu výskumu bezpečnosti AI a potenciálnych rizík spojených s AGI a ASI.
Obavy o bezpečnosť AI
Hlavnou obavou je, že väčšina ľudí v odbore sa zdá, že neberie inteligenciu vážne, keď navrhujú stále inteligentnejšie stroje, a keď vyhlasujú, že chcú navrhnúť skutočnú AGI, netrávia čas na to, aby zistili, ako to urobiť bezpečne. Predovšetkým len predpokladajú, že tieto problémy sa vyriešia samotné, keď urobíme ten konečný krok, alebo hovoria veľmi optimistické veci ako „AI by nikdy nevytvorila motív byť zlomyseľná voči ľudstvu“, čo nie je obavou.
Obavou je, že v prítomnosti obrovských rozdielov v kompetenciách, a určite v stave, keď sa tieto stroje zlepšujú samy, zlepšujú svoj vlastný kód, by mohli vyvíjať inštrumentálne ciele, ktoré sú v rozpore s naším blahom, bez akéhokoľvek úmyslu nám ublížiť.
To je analogické s tým, čo robíme každému inému druhu na Zemi. Vy a ja si vedome nevytvárame úmysel ublížiť hmyzu každý deň, ale je veľa vecí, ktoré môžeme mať v úmysle urobiť, ktoré by v skutočnosti ublížili hmyzu, pretože sa rozhodnete nanovo položiť príjazdovú cestu alebo čokoľvek iné, čo robíte. Jednoducho neberiete záujmy hmyzu do úvahy, pretože sú tak hlboko pod vami z hľadiska vašich kognitívnych horizontov.
Potenciálne prínosy AGI
Zatiaľ čo výskumníci AI a vedúci myslitelia pracujú na zvýšení povedomia o potenciálnych nebezpečenstvách nekontrolovaného vývoja AI, mnoho zainteresovaných strán stále podceňuje riziká alebo uprednostňuje krátkodobé zisky pred dlhodobými bezpečnostnými obavami. Na druhej strane, vývoj AGI by mohol priniesť významné výhody pre ľudstvo, ak by bol v súlade s ľudskými hodnotami. AGI by potenciálne mohla vyriešiť niektoré z najnaliehavejších problémov, ktorým náš svet dnes čelí.
„Môžeme sa pozerať na všeobecnú AI ako na nástroj na to, čo ľudské bytosti už vedia, ako robiť so všetkými našimi pokrokmi civilizácie za posledných niekoľko tisíc rokov. Teraz môžeme zabezpečiť príjemnú životnú úroveň pre pomerne veľký počet ľudí. Pretože všeobecná AI by to mohla robiť, a z definície môže robiť čokoľvek, čo môžu robiť ľudia, mohla by to robiť vo oveľa väčšom meradle za oveľa nižšie náklady. Mohli by sme zvýšiť životnú úroveň každého na Zemi na to, čo považujeme za rešpektovanú úroveň.“
Ak by ste urobili matematiku na zadnej strane obálky, to by znamenalo približne desaťnásobné zvýšenie HDP a čistá súčasná hodnota – hotovostný ekvivalent tohto príjmu – zvýšený príjmový tok by bol asi 13,5 kvadrilióna, to je 13,5 tisíc biliónov dolárov. To je spodná hranica hodnoty vytvorenia technológie všeobecnej AI.
AGI by mohla viesť k prelomom vo vedeckom výskume, posilniť našu schopnosť modelovať zložité systémy a umožniť nám prijímať lepšie rozhodnutia na základe obrovského množstva údajov. Navyše, AGI by mohla zrevolučniť priemysel, zvýšiť produktivitu a efektivitu a potenciálne viesť k svetu hojnosti.
Rovnováha medzi rizikami a odmenami
Ako postupujeme smerom k AGI, je kľúčové zvážiť riziká aj odmeny spojené s takýmto vývojom. Séria GPT slúži ako odrazový mostík pri snahe o AGI a jej rýchly pokrok poskytuje náhľad do potenciálnych schopností budúcich systémov AI. Keď pokračujeme v pokroku v AI, je nevyhnutné vyvážiť potenciálne výhody s potenciálnymi rizikami a investovať do výskumu bezpečnosti AI, aby sme zabezpečili, že AGI, keď sa realizuje, bude prospešná pre ľudstvo.
Hlavná rovnica, ktorá vyplýva z tohto komplexného problému, je: ako môžeme bezpečne a efektívne využiť silu AGI na zlepšenie ľudstva a zároveň zmierniť riziká spojené s jej vývojom? Táto otázka bude vyžadovať spoločné úsilie výskumníkov, tvorcov politík a spoločnosti ako celku, aby sa riešili výzvy a príležitosti, ktoré ležia pred nami v našom úsilí o AGI.
Obrázky: AI, Zdroj: ScienceTime24
Pridaj komentár