AI (umělá inteligence) je mnohem větším nebezpečím než kdo tuší. Pomineme-li například fakt, že ji již dnes využívají studenti k podvádění při vypracovávání písemných testů, pak mnohem větším problémem je možnost narušení soukromí a alarmující je i využívání AI proti oponentům režimu, jako to nyní dělá nově například Německo.
AI by však mohla doslova ovládnout lidstvo, čehož se již obávají i samotní tvůrci, zpod jejichž kontroly by se mohla AI dřív či později zcela vymknout.
Generální ředitel Twitteru Elon Musk se připojil k desítkám odborníků na umělou inteligenci (AI) a vedoucím pracovníkům v oboru a podepsal otevřený dopis vyzývající všechny laboratoře AI, aby okamžitě pozastavily školení systémů výkonnějších než Chat GPT-4 po dobu nejméně šesti měsíců.
Petici sepsanou neziskovou organizací Future of Life Institute podepsalo více než 1100 osob, včetně spoluzakladatele Applu Steva Wozniaka, zakladatele a generálního ředitele Stability AI Emada Mostaqueho a inženýrů z Meta a Google, mezi jinými .
Tvrdí, že systémy umělé inteligence s lidskou konkurenční inteligencí mohou představovat hluboká rizika pro společnost a lidstvo a změnit historii života na Zemi, přičemž citují rozsáhlý výzkum tohoto problému a doporučení špičkových laboratoří umělé inteligence.
Odborníci dále prohlašují, že v současnosti existuje omezené plánování a správa systémů pokročilé umělé inteligence, přestože společnosti v posledních měsících uvízly v závodě mimo kontrolu ve vývoji a nasazení stále výkonnějších digitálních myslí, kterým nikdo – ani jejich tvůrci – neumí porozumět, předvídat nebo spolehlivě ovládat.
„Současné systémy umělé inteligence se nyní stávají konkurenceschopnými pro lidi v obecných úkolech a musíme si položit otázku:
Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechny práce, včetně těch naplňujících? Měli bychom vyvinout nelidské mysli, které by nás nakonec mohly převýšit, přechytračit a nahradit nás? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nesmí být delegována na nevolené technologické lídry,“ stojí v dopise.
Výkonné systémy umělé inteligence by měly být vyvíjeny pouze tehdy, když jsme si jisti, že jejich účinky budou pozitivní a jejich rizika budou zvládnutelná,“ dodává.
Dopis pak požaduje veřejnou a ověřitelnou minimálně šestiměsíční pauzu ve výcviku systémů umělé inteligence výkonnějších než GPT-4 nebo vládou vydané moratorium na takový výcvik, pokud pauzu nelze uzákonit rychle.
Během takové pauzy by laboratoře umělé inteligence a nezávislí odborníci měli využít čas k vytvoření a implementaci sady sdílených bezpečnostních protokolů pro pokročilý návrh a vývoj umělé inteligence, které jsou přísně auditovány a kontrolovány nezávislými odborníky třetích stran, uvádí dopis.
Takové protokoly by měly být navrženy tak, aby zajistily, že systémy, které se k nim připojují, jsou nade vší pochybnost bezpečné, přesné, důvěryhodné a v souladu, uvedli odborníci.
Kromě toho dopis vyzývá tvůrce politik, aby urychleně vyvinuli robustní systémy řízení umělé inteligence, jako jsou úřady, které jsou schopny zajistit dohled a sledovat vysoce schopné systémy umělé inteligence, získávat finanční prostředky na další výzkum bezpečnosti umělé inteligence a vytvářet instituce, které se zabývají dramatickými ekonomickými a politickými rozvraty (zejména demokracie), které umělá inteligence způsobí.
„To neznamená pozastavení vývoje umělé inteligence obecně, pouze krok zpět od nebezpečné rasy ke stále větším nepředvídatelným modelům černé skříňky s novými schopnostmi,“ uvedli odborníci ve svém dopise.
Dopis přichází pouhé dva týdny poté, co OpenAI, tvůrce systému umělé inteligence ChatGPT, vydal 14. března dlouho očekávanou aktualizaci své technologie AI – Chat GPT-4, nejvýkonnější systém umělé inteligence všech dob.
Podle OpenAI, který je podporován společností Microsoft, má aktualizovaný systém řadu nových funkcí, jako je přijímání obrázků jako vstupů a generování titulků, klasifikací a analýz, ale je bezpečnější a přesnější než jeho předchůdce.
V únorovém prohlášení OpenAI uznalo, že v určitém okamžiku může být důležité získat nezávislou kontrolu před zahájením trénování budoucích systémů a pro nejpokročilejší úsilí dohodnout se na omezení rychlosti růstu výpočetní techniky používané k vytváření nových modelů.
„Myslíme si, že jsou důležité veřejné standardy o tom, kdy by úsilí AGI mělo zastavit tréninky, rozhodnout, zda je model bezpečný pro vydání nebo kdy model stáhnout z výroby. A konečně si myslíme, že je důležité, aby hlavní světové vlády měly přehled o tréninkových bězích nad určitým rozsahem,“ uvedla společnost.
Začátkem tohoto týdne Europol, donucovací orgán Evropské unie, varoval před vážnými důsledky používání ChatGPT pro počítačovou kriminalitu a další škodlivé aktivity, včetně šíření dezinformací.
Další obavy byly vzneseny v souvislosti se softwarem, který je trénován pomocí zesíleného učení z lidské zpětné vazby (RLHF), zejména pokud jde o to, jak jej lze použít k tomu, aby pomohl studentům podvádět při zkouškách a domácích úkolech.
Navzdory těmto obavám popularita ChatGPT přiměla konkurenční firmy k uvedení podobných produktů.
Minulý týden Google oznámil, že spustil svou aplikaci AI, známou jako „Bard“, pro testování ve Spojeném království a ve Spojených státech, ačkoli společnost byla ve srovnání se svým konkurentem výrazně pomalejší při vydávání této technologie, s odkazem na to, že potřebuje další zpětnou vazbu k aplikaci.
Ohodnoťte tento příspěvek! [Celkem: 3 Průměrně: 4.7 ] Článek Více než 1000 expertů žádá okamžité pozastavení vývoje umělé inteligence se nejdříve objevil na Necenzurovaná pravda .