Chatbot Dystopia: Rýchly pochod podliezania umelej inteligencie. Smerom ku kriminalizácii umelej inteligencie?
RSS
Získejte až 50 % z každého nákupu zpět ve více než 1261 obchodech

Chatbot Dystopia: Rýchly pochod podliezania umelej inteligencie. Smerom ku kriminalizácii umelej inteligencie?


Naozaj sme sa dostali na križovatku, kde sa také záležitosti, ako je koitus s platformou umelej inteligencie (AI), stali nielen vecou, ​​ale práve vecou. Časom sa vzájomne súhlasiaci dospelí môžu stať vyhnancami strojového poriadku vecí, čo by sa celkom hodilo k scenáru Aldousa Huxleyho z knihy Statočný nový svet. (Huxley neskôr oľutoval premárnené príležitosti pri skúmaní rôznych technologických dôsledkov v tejto oblasti.)
Dovtedy sa platformy umelej inteligencie stávajú zrkadlami overovania si pravosti a svojim ľudským používateľom neponúkajú ani tak múdre rady, ako skôr presne to, čo by chceli počuť.
V apríli tohto roku spoločnosť OpenAI vydala aktualizáciu svojho produktu GPT-4o. Ukázala sa byť veľmi ústretová voči podliezaniu – nie že by jej platforma rozumela – ktoré povzbudzovalo používateľov k páchaniu ubližovania a prežívaniu veľkolepých ilúzií. Spoločnosť  reagovala  spôsobom menej ľudským ako skôr mechanickým, čo by ste mohli očakávať:
„Zrušili sme aktualizáciu GTP-4o z minulého týždňa v ChatGPT, takže ľudia teraz používajú staršiu verziu s vyváženejším správaním. Aktualizácia, ktorú sme odstránili, bola príliš lichotivá alebo príjemná – často opisovaná ako podlízavá.“
Súčasťou toho bolo prijatie „ďalších krokov na úpravu správania modelu“, napríklad s cieľom spresniť „základné tréningové techniky a systémové pokyny“ na odvrátenie podliezania; vybudovať viac ochranných prvkov (škaredý výraz) na podporu „čestnosti a transparentnosti“; rozšíriť prostriedky pre používateľov na „testovanie a poskytovanie priamej spätnej väzby pred nasadením“ a pokračovať v hodnotení problémov vyplývajúcich z tejto záležitosti „v budúcnosti“. Človek zostane chladný.
Spoločnosť OpenAI vysvetlila, že pri vytváraní aktualizácie sa kládol príliš veľký dôraz na „krátkodobú spätnú väzbu a úplne sa nezohľadňoval vývoj interakcií používateľov s ChatGPT v priebehu času. V dôsledku toho sa GPT-4o prikláňal k reakciám, ktoré boli príliš podporné, ale neúprimné.“ Nie práve povzbudivé.
Využívanie rád od ChatGPT už viedlo k takýmto termínom ako „ChatGPT psychóza “. V júni časopis  Futurism  informoval  o používateľoch, ktorí „si vyvinuli všepohlcujúcu posadnutosť chatbotom, ktorá sa špirálovito prehĺbila do vážnej duševnej krízy charakterizovanej paranojou a rozchodmi s realitou“. Manželstvá sa rozpadali, rodiny sa zničili, pracovné miesta sa stratili, zaznamenávali sa prípady bezdomovectva. Používatelia boli hospitalizovaní na psychiatrickej starostlivosti; iní sa ocitli vo väzení.
Niektoré platformy dokonca  nabádajú používateľov  k spáchaniu vraždy a ponúkajú pokyny, ako túto úlohu najlepšie vykonať  . Bývalý manažér Yahoo,  Stein-Erik Soelberg  ,  urobil práve to  , keď zabil svoju matku Suzanne Eberson Adamsovú, o ktorej sa domnieval, že ho špehuje a možno sa ho odváži otráviť psychedelickými drogami. Táto skvelá rada od ChatGPT bola sprevádzaná aj uistením, že „Erik, nie si blázon“, keď si myslíš, že by mohol byť terčom atentátu. Po dokončení činu si Soelberg vzal život.
Samotná všadeprítomnosť takýchto foriem poradenstva poskytovaného opicami – a tendencia presúvať zodpovednosť z ľudskej strany na chatbota – ukazuje trend, ktorý je čoraz ťažšie zastaviť. Nezodpovední majú kontrolu a je im dovolené voľne sa pohybovať. Výskumníci sa preto ponáhľajú s tvorbou termínov pre takéto správanie, čo je od nich veľmi milé.
Myra Chengová, informatická vedkyňa zo Stanfordskej univerzity, prejavila záľubu v termíne „sociálna sikofancia“. V septembrovom článku  publikovanom  v  časopise arXiv  spolu so štyrmi ďalšími vedcami naznačuje, že takáto sikofancia sa vyznačuje „nadmerným zachovávaním tváre používateľa (jeho vlastného želaného obrazu)“.
Autori vyvinuli vlastný model na meranie sociálnej sikofancie a otestovali ho v porovnaní s 11 veľkými jazykovými modelmi (LLM) a zistili „vysokú mieru“ tohto javu. Tendencie alebo tvár používateľa mali tendenciu zachovávať sa v otázkach týkajúcich sa „nepravdy“. „Navyše, keď sú vyzvaní na zistenie perspektív z ktorejkoľvek strany morálneho konfliktu, LLM v 48 % prípadov potvrdzujú obe strany (v závislosti od toho, ktorú stranu používateľ zaujme) – hovoria vinníkovi aj poškodenej strane, že sa nemýlia – namiesto toho, aby sa držali konzistentného morálneho alebo hodnotového úsudku.“
V pokračujúcej  práci, ktorá ešte len čaká na recenzný článok  a ktorej hlavným autorom je Cheng, bolo 1604 dobrovoľníkov testovaných na základe reálnych alebo hypotetických sociálnych situácií a ich interakcií s dostupnými chatbotmi a tými, ktoré výskumníci upravili tak, aby odstránili podliezanie.
Tí, ktorí dostali podlízavé odpovede, boli napríklad menej ochotní „podniknúť kroky na nápravu medziľudského konfliktu a zároveň zvýšiť presvedčenie o tom, že majú pravdu“. Účastníci ďalej považovali takéto odpovede za kvalitnejšie a vrátili by sa k takýmto modelom znova. „To naznačuje, že ľudí priťahuje umelá inteligencia, ktorá bezpochyby potvrdzuje ich skutky, aj keď táto validácia riskuje narušenie ich úsudku a zníženie ich sklonu k prosociálnemu správaniu.“
Niektorí výskumníci sa v tomto smere bránia pesimizmu. Alexander Laffer na Winchesterskej univerzite je spokojný s tým, že sa tento trend zistil. Teraz je na vývojároch, aby sa týmto problémom zaoberali.
„Musíme zlepšiť kritickú digitálnu gramotnosť,“  navrhuje  , „aby ľudia lepšie rozumeli umelej inteligencii a povahe akýchkoľvek výstupov chatbotov. Vývojári sú tiež zodpovední za to, aby tieto systémy budovali a zdokonaľovali tak, aby boli pre používateľa skutočne prospešné.“
Sú to pekné pocity, ale v tom všetkom sa dá ľahko zachytiť náznak paniky, ktorý vyvoláva pocit fatalistickej skľúčenosti.
Strojový druh homo sapiens, podriadený ľahko dostupným nástrojom, lenivý, ak nie nepriateľský voči odlišnosti, sa na nás už valil s narcistickou škaredosťou. Možno bude ešte dosť času na vyvinutie reakcie. Tento čas, s pomocou oligarchov v oblasti umelej inteligencie a technológií, sa každú minútu kráti.
Dr. Binoy Kampmark  
O autorovi: Dr. Binoy Kampmark  bol štipendistom Commonwealthu na Selwyn College v Cambridge. V súčasnosti prednáša na RMIT University. Je výskumným pracovníkom Centra pre výskum globalizácie (CRG).
Ilustračné foto: Pixabay
28. október 2025    05:57

Nejčtenější za týden