Šéf společnosti Synchron nesouhlasí s Elonem Muskem a představuje vlastní vizi budoucnosti neurálních rozhraní

Thomas Oxley, šéf Synchronu, konkurenta Neuralinku, se na X dost detailně rozepsal o tom, co soudí o dlouhodobé vizi Elona Muska a Neuralinku.

Podle Elona jsou neurální rozhraní jedním z možných řešení pro zmírnění eventuálních negativních scénářů soužití lidí s obecnou umělou inteligencí (AI) a superinteligencí (ASI). Možných scénářů je jistě mnoho, ale většinu z nich spojuje to, že lidstvo je marginalizováno anebo přinejmenším zůstává výrazně pozadu. Zabránit by tomu měla právě pokročilá neurální rozhraní, která lidem umožní mnohem rychleji komunikovat, integrovat se s nástroji umělé inteligence a vylepšovat sebe sama po všech možných stránkách.

Thomas Oxley však označuje tuto vizi za neúplnou a na X se zamýšlí nad možnými dopady nezodpovědného vývoje rozhraní. Řeší zde některé zásadní otázky bezpečnosti, autonomie, kontroly a etiky. Dozvídáme se mimochodem i to, že Oxley se stal spolupředsedou nově vytvořené Rady pro neurotechnologie Světového ekonomického fóra, což je zřejmě i důvodem, proč svůj příspěvek napsal.

Thomas Oxley:

Vize Neuralinku o srovnání lidstva s umělou inteligencí (AI) je neúplná. V době neurálních rozhraní využívajících AI se musíme hlouběji zamyslet nad kognitivní autonomií jedince. Neurální rozhraní AI nezkrotí, ale mohla by změnit lidstvo.

Příští týden na konferenci Nvidia GTC představíme nový program Synchronu, který posouvá neurální rozhraní integrovaná s AI na další úroveň. Peter Yoo bude prezentovat naši vizi inteligenčního paradigmatu, kde se umělá inteligence učí přímo z lidského poznání.

Elon Musk s Neuralinkem propaguje názor, že neurální rozhraní jsou potřebná k vyřešení problému soužití lidí s AI – že díky navýšení rychlosti komunikace mezi lidmi a AI budeme moci s umělou inteligencí udržet krok.

To ale nedává smysl.

Rozhraní nemohou vyřešit soužití s AI. Problémem není rychlost komunikace, ale kontrola chování. Umělá inteligence se rozvíjí exponenciálně, zatímco lidské poznávací schopnosti – bez ohledu na to, jak vylepšené – zůstanou biologicky omezeny. I s pokročilými rozhraními bychom stále mysleli hlemýždím tempem ve srovnání s obecnou umělou inteligencí. A co teprve s obecnou superinteligencí? Bezpečnost umělé inteligence závisí na jejím regulování a dohledu, nikoli na jejím zapojení do našich mozků. Soužití s AI musí být řešeno v situaci, kdy lidé nikdy plně nepochopí každý výstup nebo rozhodnutí modelu AI. Je to velký problém naší doby, ale nevyřeší ho neurální rozhraní.

Ve skutečnosti to může být opačné, než tvrdí Elon. Rozhraní by mohla rizika soužití s AI ještě zhoršit. Algoritmy už teď manipulují s lidským poznáním (například TikTok a jiná sociální média nebo reklamní nástroje). Jejich integrace přímo do našeho mozku nás vystavuje riziku, že umělá inteligence bude formovat naše myšlenky, touhy a rozhodnutí, a to na úrovni, kterou možná ani nebudeme vnímat.

Skutečný příslib neurálních rozhraní není o ovládání umělé inteligence, jde o lidský rozkvět. Jednou ze základních lidských vlastností, zakódovanou v naší DNA, je snaha o zlepšování našeho života. Pro pacienty s neurologickým poraněním to znamená obnovení ztracených funkcí. V budoucnu se zdá nevyhnutelné, že tyto snahy budou zahrnovat i vylepšování. Neurální rozhraní nám umožní překročit naše fyzická omezení, lépe se vyjadřovat, komunikovat a tvořit. Podobně jako auta, letadla nebo počítače – každý z těchto vynálezů změnil to, co znamenalo být člověkem.

Tohle všechno mě vedlo k formulaci jednoduchého, ale zásadního etického rámce pro integraci neurálních rozhraní a umělé inteligence. Jde o tři pilíře, které řeší nejvýznamnější rizika, včetně autonomie, soukromí a diskriminace.

Zajímá mě zpětná vazba od naší komunity (zejména mé spolupředsedkyně nově vytvořené Rady pro neurotechnologie Světového ekonomického fóra, Nity Farahany, nicméně tyto názory jsou mé vlastní). Pilíře, o kterých mluvím, jsou lidský rozkvět (angl. human flourishing), kognitivní suverenita (angl. cognitive sovereignty) a kognitivní pluralismus (angl. cognitive pluralism).

1. Rozkvět lidstva

Neurotechnologie by měla být hnací silou blahobytu, rozšiřování lidského potenciálu a zlepšování kvality života. Musí umožnit jednotlivcům zlepšit jejich kognitivní a fyzické schopnosti a zároveň respektovat základní právo na sebeurčení. Inovace by měly upřednostňovat lidské aktivity, naplnění jedinců, dlouhodobé společenské přínosy a zajištění, aby pokrok povznášel lidskou důstojnost. Regulace oboru by měla umožnit zodpovědný pokrok, aniž by přidávala zbytečné bariéry, které by omezovaly osobní autonomii nebo přístup k technologiím zlepšujícím život.

Pokud to uděláme špatně:

  • Ztráta sebeurčení – příliš restriktivní politika nebo centralizovaná kontrola by mohly omezit individuální volbu při přijímání neurotechnologií.

Pokud to uděláme správně:

  • Obnovené a vylepšené schopnosti – rozhraní pomohou jedincům s neurologickým onemocněním obnovit jejich funkce.
  • Rozšířený lidský potenciál – rozhraní se stanou nástrojem pro vyjadřování, komunikaci a produktivitu, což lidem umožní překonat fyzická omezení.
  • Etický pokrok – regulace budou chránit sebeurčení a zároveň umožní odpovědné inovace a zajistí, že rozhraní budou sloužit lidskému blahobytu a ne centralizované kontrole.
2. Kognitivní suverenita

Jednotlivci musí mít absolutní kontrolu nad svými vlastními myšlenkovými procesy, bez vnější manipulace nebo nátlaku. Soukromí a bezpečnost jsou prvořadé – uživatelé musí vlastnit a kontrolovat svá mozková data a zajistit, aby byla chráněna před zneužitím korporacemi, vládami nebo algoritmy řízenými umělou inteligencí. Rozhraní musí zabránit podvědomému nebo přímému ovlivňování a chránit před skrytými nebo zjevnými vlivy umělé inteligence v rozhodování. To může vyžadovat decentralizovanou, uživateli řízenou infrastrukturu pro udržení kognitivní autonomie. Rozhraní by měla obecně zlepšovat život uživatele, ne ho zhoršit.

Pokud to uděláme špatně:

  • Ztráta kognitivního soukromí – data z mozku by mohla být získávána, prodávána nebo manipulována bez souhlasu, což by mohlo vést k bezprecedentním možnostem sledování, špionáže nebo kontroly chování.
  • Nátlak a přesvědčování řízené umělou inteligencí – pokročilé algoritmy by mohly využívat podvědomé procesy a nenápadně utvářet myšlenky, rozhodnutí a emoce z komerčních, politických nebo ideologických důvodů.
  • Centralizovaná kontrola kognitivních funkcí – jsou-li mozková data monopolizována korporacemi nebo vládami, jednotlivci riskují ztrátu autonomie nad svými vlastními myšlenkami, přičemž umělá inteligence by mohla fungovat jako strážce vnímání a přesvědčení.

Pokud to uděláme správně:

  • Uživatelé budou nadále vlastnit svou mysl – data z mozku zůstanou soukromá, kontrolovaná uživatelem a bezpečná, neoprávněný přístup, sledování nebo manipulace nebudou možné.
  • Rozhraní posílí uživatelům interakci se světem – integrace s umělou inteligencí pomůže zlepšit život, AI bude nápomocná, nikoli dotěrná. Posílí jednotlivce, aniž by utvářela jejich rozhodnutí nebo je do něčeho podvědomě nutila.
  • Decentralizovaná kognitivní autonomie – uživateli řízený a bezpečný ekosystém zajistí, že myšlenky, volby a mentální zážitky zůstanou bez vlivu korporací nebo vlád.
3. Kognitivní pluralismus

Zajištění respektování a oceňování různých kognitivních modelů, perspektiv a způsobů myšlení. Kognitivní rozmanitost, podobně jako neurodiverzita, musí být chráněna a podporována, aby se zabránilo tomu, že jeden model inteligence, vnímání nebo poznání bude dominovat na úkor ostatních. To zahrnuje řešení kulturní diskriminace mezi uživateli a neuživateli neurotechnologií v době, kdy budou neurální rozhraní stále více rozšířená. Přístup k neurotechnologiím musí být demokratizován, aby se zajistilo, že se nová vylepšení nestanou nástrojem pro vyloučení ze společnosti, ale potenciálním prostředkem posílení pro všechny.

Pokud to uděláme špatně:

  • Třídní systém a sociální nerovnosti – kognitivní vylepšení by mohla vytvořit elitní třídu a rozšířit společenské rozdíly.
  • Diskriminace – ti, kteří se nevylepší, nebo ti, kdo si díky rozhraní obnoví nějakou ztracenou funkci, mohou čelit sociálním, ekonomickým nebo politickým překážkám, což by mohlo vést k nespravedlivým nevýhodám.
  • Kulturní nátlak – jednotlivci mohou být nuceni ke kognitivním augmentacím pod nátlakem okolí.

Pokud to uděláme správně:

  • Rozmanité kognitivní modely – neurální rozhraní budou rozšiřovat kognitivní vyjádření, čímž zajistí bohaté prostředí myšlenek, kreativity a inteligence.
  • Demokratizovaný přístup – neurotechnologie budou prospívat všem a neumožní vznik kognitivních elit. Neurotechnologická vylepšení budou přínosem pro celou populaci, nejen pro pár privilegovaných.
  • Svoboda přistoupení i odstoupení – jednotlivci si zachovají volbu. Budou si moci si vybrat, zda se vylepší, nebo ne bez sociálních, ekonomických nebo politických dopadů.

Neurální rozhraní mají potenciál předefinovat lidské schopnosti, komunikaci a kreativitu – ale pouze pokud budou vyvinuty v prostředí s jasnými etickými mantinely. Upřednostněním lidského rozkvětu, kognitivní suverenity a kognitivního pluralismu můžeme zajistit, že tyto technologie jednotlivce posílí, než aby snižovaly autonomii, soukromí nebo společenskou soudržnost. Rozhodnutí, která nyní učiníme, určí, zda se rozhraní stanou nástrojem pro větší lidský potenciál nebo mechanismem kontroly a rozdělení společnosti.


Přispějte prosím na provoz webu ElonX, aby mohl nadále zůstat bez reklam. Podpořte nás pomocí služby Patreon či jinak a zařaďte se tak po bok ostatních dobrodinců, kteří už finančně přispěli. Děkujeme!




Mohlo by se vám líbit...

Odebírat komentáře
Nastavit upozorňování na
guest

1 Komentář
nejnovější
nejstarší nejlepší
Inline Feedbacks
Zobrazit všechny komentáře
Martin B

Děkuji za článek. Více konkurence je vždy výhoda pro zákazníky.