Více než 1000 expertů žádá okamžité pozastavení vývoje umělé inteligence
RSS

Více než 1000 expertů žádá okamžité pozastavení vývoje umělé inteligence

AI (umělá inteligence) je mnohem větším nebezpečím než kdo tuší. Pomineme-li například fakt, že ji již dnes využívají studenti k podvádění  při vypracovávání písemných testů, pak mnohem větším problémem je možnost narušení soukromí a alarmující je i využívání AI proti oponentům režimu, jako to nyní dělá nově například Německo.
AI by však mohla doslova ovládnout lidstvo, čehož se již obávají i samotní tvůrci, zpod jejichž kontroly by se mohla AI dřív či později zcela vymknout.
Generální ředitel Twitteru Elon Musk se připojil k desítkám odborníků na umělou inteligenci (AI) a vedoucím pracovníkům v oboru a podepsal otevřený dopis vyzývající všechny laboratoře AI, aby okamžitě pozastavily školení systémů výkonnějších než Chat GPT-4 po dobu nejméně šesti měsíců.
Petici sepsanou neziskovou organizací Future of Life Institute podepsalo více než 1100 osob, včetně spoluzakladatele Applu Steva Wozniaka, zakladatele a generálního ředitele Stability AI Emada Mostaqueho a inženýrů z Meta a Google, mezi jinými .
Tvrdí, že systémy umělé inteligence s lidskou konkurenční inteligencí mohou představovat hluboká rizika pro společnost a lidstvo a změnit historii života na Zemi, přičemž citují rozsáhlý výzkum tohoto problému a doporučení špičkových laboratoří umělé inteligence.


Odborníci dále prohlašují, že v současnosti existuje omezené plánování a správa systémů pokročilé umělé inteligence, přestože společnosti v posledních měsících uvízly v závodě mimo kontrolu ve vývoji a nasazení stále výkonnějších digitálních myslí, kterým nikdo – ani jejich tvůrci – neumí porozumět, předvídat nebo spolehlivě ovládat.



„Současné systémy umělé inteligence se nyní stávají konkurenceschopnými pro lidi v obecných úkolech a musíme si položit otázku:
Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechny práce, včetně těch naplňujících? Měli bychom vyvinout nelidské mysli, které by nás nakonec mohly převýšit, přechytračit a nahradit nás? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nesmí být delegována na nevolené technologické lídry,“ stojí v dopise.
Výkonné systémy umělé inteligence by měly být vyvíjeny pouze tehdy, když jsme si jisti, že jejich účinky budou pozitivní a jejich rizika budou zvládnutelná,“ dodává.
Dopis pak požaduje veřejnou a ověřitelnou minimálně šestiměsíční pauzu ve výcviku systémů umělé inteligence výkonnějších než GPT-4 nebo vládou vydané moratorium na takový výcvik, pokud pauzu nelze uzákonit rychle.


Během takové pauzy by laboratoře umělé inteligence a nezávislí odborníci měli využít čas k vytvoření a implementaci sady sdílených bezpečnostních protokolů pro pokročilý návrh a vývoj umělé inteligence, které jsou přísně auditovány a kontrolovány nezávislými odborníky třetích stran, uvádí dopis.


Takové protokoly by měly být navrženy tak, aby zajistily, že systémy, které se k nim připojují, jsou nade vší pochybnost bezpečné, přesné, důvěryhodné a v souladu, uvedli odborníci.
Kromě toho dopis vyzývá tvůrce politik, aby urychleně vyvinuli robustní systémy řízení umělé inteligence, jako jsou úřady, které jsou schopny zajistit dohled a sledovat vysoce schopné systémy umělé inteligence, získávat finanční prostředky na další výzkum bezpečnosti umělé inteligence a vytvářet instituce, které se zabývají dramatickými ekonomickými a politickými rozvraty (zejména demokracie), které umělá inteligence způsobí.
„To neznamená pozastavení vývoje umělé inteligence obecně, pouze krok zpět od nebezpečné rasy ke stále větším nepředvídatelným modelům černé skříňky s novými schopnostmi,“ uvedli odborníci ve svém dopise.
Dopis přichází pouhé dva týdny poté, co OpenAI, tvůrce systému umělé inteligence ChatGPT,  vydal  14. března dlouho očekávanou aktualizaci své technologie AI – Chat GPT-4, nejvýkonnější systém umělé inteligence všech dob.
Podle OpenAI, který je podporován společností Microsoft, má aktualizovaný systém řadu nových funkcí, jako je přijímání obrázků jako vstupů a generování titulků, klasifikací a analýz, ale je bezpečnější a přesnější než jeho předchůdce.
V únorovém  prohlášení OpenAI uznalo, že v určitém okamžiku může být důležité získat nezávislou kontrolu před zahájením trénování budoucích systémů a pro nejpokročilejší úsilí dohodnout se na omezení rychlosti růstu výpočetní techniky používané k vytváření nových modelů.
„Myslíme si, že jsou důležité veřejné standardy o tom, kdy by úsilí AGI mělo zastavit tréninky, rozhodnout, zda je model bezpečný pro vydání nebo kdy model stáhnout z výroby. A konečně si myslíme, že je důležité, aby hlavní světové vlády měly přehled o tréninkových bězích nad určitým rozsahem,“ uvedla společnost.
Začátkem tohoto týdne Europol, donucovací orgán Evropské unie,  varoval  před vážnými důsledky používání ChatGPT pro počítačovou kriminalitu a další škodlivé aktivity, včetně šíření dezinformací.
Další obavy byly vzneseny v souvislosti se softwarem, který je trénován pomocí zesíleného učení z lidské zpětné vazby (RLHF), zejména pokud jde o to, jak jej lze použít k tomu, aby pomohl studentům podvádět při zkouškách a domácích úkolech.
Navzdory těmto obavám popularita ChatGPT přiměla konkurenční firmy k uvedení podobných produktů.
Minulý týden Google oznámil, že spustil svou aplikaci AI, známou jako „Bard“, pro testování ve Spojeném království a ve Spojených státech, ačkoli společnost byla ve srovnání se svým konkurentem výrazně pomalejší při vydávání této technologie, s odkazem  na to, že potřebuje další zpětnou vazbu k aplikaci.
Ohodnoťte tento příspěvek! [Celkem: 3 Průměrně: 4.7 ] Článek Více než 1000 expertů žádá okamžité pozastavení vývoje umělé inteligence se nejdříve objevil na Necenzurovaná pravda .


Nejčtenější za týden