Elon Musk a Joe Rogan během rozhovoru (Zdroj: YouTube)
Elon Musk před pár týdny slíbil, že až bude mít trochu času, navštíví Joea Rogana, který provozuje podcast The Joe Rogan Experience. Nyní jsme se konečně dočkali a Elon poskytl více než 2hodinový rozhovor, během kterého přišla řeč na většinu jeho oblíbených témat. Rozhovor se hodně věnoval hrozbě umělé inteligence, ale také došlo na Elonovy osobní názory, Neuralink, Boring Company, Teslu, Muskův koncept elektrického nadzvukového letounu a v neposlední řadě také kouření marihuany.
Rozhovor byl pro mě docela zklamáním. Rogan nebyl moc dobře informovaný, takže pokládal spíše vágní otázky na obecná témata a celá debata byla poněkud “ukecaná” a vedla odnikud nikam. Zkrátka, i když se hodně mluvilo, vlastně jsme se skoro nic nedozvěděli. Sepsal jsem tedy alespoň pár stručných poznámek o těch věcech, které mě zaujaly nebo pobavily.
Musk s ne-plamenometem The Boring Company před začátkem rozhovoru (Foto: Joe Rogan)
- Muskovi se nelíbí, že je na Wikipedii označen jako podnikatelský magnát, radši by prý byl podnikatelský magnet.
- Elon řekl, že je mimozemšťan.
- Musk už poněkolikáté upřesnil, že 80 % svého času věnuje inženýrství.
- Létající auta jsou podle Muska moc hlučná, nepraktická a nebezpečná. Tunely jsou prý lepším řešením dopravních problémů, protože jsou na rozdíl od silniční infrastruktury 3D. Tunely lze vrstvit třeba i do hloubky 3 kilometrů.
- Elon si stále myslí, že neregulovaný vývoj umělé inteligence může mít katastrofické následky. O této potenciální hrozbě mluvil, s kým jen mohl, včetně bývalého amerického prezidenta Obamy nebo s guvernéry všech států. Byl by rád, kdyby vznikla nějaká komise, která by nejdříve sledovala vývoj na poli umělé inteligence a až by se s problematikou dostatečně obeznámila, navrhla by nějaká pravidla pro bezpečný vývoj těchto technologií. Bohužel mu přijde, že jeho snahy upozornit na tento problém nikam nevedly.
- Pokročilá umělá inteligence podle něj nemusí být nutně zlá, ale nebude možné ji ovládat a problém také bude, že lidi ji téměř určitě použijí proti ostatním lidem.
- Podle Elona nemají lidé kopat do robotů, neboť mají dobrou paměť.
- Všichni jsme už dnes kyborgové, protože mobil je v podstatě digitálním rozšířením našeho já a díky internetu dokážeme během okamžiku cokoli vypočítat, zjistit nějakou informaci nebo okamžitě komunikovat s kýmkoli na světě.
- Muskova společnost Neuralink pracuje na propojení lidského mozku s počítači. Je to mimo jiné jeden ze způsobů, jak se vypořádat s hrozbou umělé inteligence (“Když ji nedokážeme porazit, můžeme se k ní přidat”). Elon také řekl, že firma by mohla během pár měsíců oznámit nějakou novinku, která podle něj bude o řád lepší než cokoli, co na tomto poli existuje dnes.
- Elon znovu prohlásil, že je dost velká šance, že žijeme v něčí počítačové simulaci. Této teorii podle něj nahrává to, že díky technologickým pokrokům budou už brzy počítačové hry a virtuální realita neodlišitelné od skutečnosti.
- Šimpanzi jsou zlí.
- Elon možná naznačil, že Tesla chystá nějaký produkt související s domácí klimatizací/vytápěním.
- Elon vypracoval návrh na elektrický nadzvukový letoun schopný vertikálního startu a přistání. Elektrická auta, solární systémy a bateriová úložiště jsou však podle něj důležitější, a jelikož má málo času, letadlo bude muset počkat.
- Jediná dvě auta se spalovacím motorem, která Musk vlastní, jsou kabriolet Jaguar E-Type a stařičký Ford Model T (ten dostal darem).
- Musk zmínil málo známou funkci Tesly Model X, kterou lze přepnout do režimu připomínajícího balet:
- Musk vyprávěl o tom, jak jeden řidič Tesly ještě v době před Autopilotem usnul za volantem a zabil cyklistu. To prý Muska motivovalo k tomu, aby Autopilot uvedl do provozu co nejdříve, neboť ten by takové nehodě dokázal zabránit. Zmíněný řidič pak Teslu žaloval, protože prý usnul kvůli tomu, jak jeho nová Tesla voněla. Soudce však žalobu smetl ze stolu.
- Soudci jsou podle Muska v drtivé většině případů chytří, poctiví a spravedliví. To samé podle něj platí o policistech a kvůli pár špatným jedincům bychom neměli zatracovat celou skupinu.
- Původní Tesla Roadster vycházel z šasi Lotusu Elise a měl využívat technologie od firmy AC Propulsion, jelikož to mělo ušetřit čas a peníze ve srovnání s návrhem auta od nuly. To podle Muska byla chyba, neboť se ve výsledku stejně muselo všechno udělat znovu. Roadster nakonec s Lotusem sdílí jen asi 7 % součástek.
- Tesla je ze všech jeho firem nejnáročnější, protože udržet automobilkou naživu je velmi těžké.
- Elon chce, aby lidstvo žilo na více planetách. Chce terraformovat Mars.
- Musk nenosí hodinky, protože mobil ukazuje čas.
- Elon popsal dění ve své hlavě jako nikdy nekončící explozi nápadů. Už ve věku 5 let si uvědomil, že ostatní lidé to tak nemají.
- V průběhu večera tekla whisky proudem a v závěru si Musk dokonce zakouřil nabídnutou marihuanu. Elon prý marihuanu skoro nikdy nekouří, jelikož snižuje jeho produktivitu. Podle něj je to takový opak kávy.
- Elon se snaží dělat užitečné věci, díky kterým bude budoucnost o něco lepší a více vzrušující.
- Musk za závěr vzkázal lidem, aby k sobě byli hodnější. Láska je podle něj odpovědí na všechno.
Záznam celého rozhovoru:
Zobrazit komentáře
"nebude možné ji ovládat a problém také bude, že lidi ji téměř určitě použijí proti ostatním lidem."
... trochu protimluv, ne?
Byly to dvě samostatné poznámky myšlené tak, že nejdříve budou pokroky v AI využívány například ve válkách mezi lidmi a někdy později se to dostane do fáze, kdy se AI může úplně vymknout kontrole.
Celkom fajn videt Elona v trosku dlshom formate ale mal som taky pocit ze mu to uplne nesedelo hlavne ked sa niekedy to skor vyzeralo ze viacej rozprava Joe Rogan ako Elon .
Kazdopadne to fajcenie travy ci whisky bolo trochu odveci , ale tak toto bol podcast Joa Rogana a ten si vo vlastnom studiu moze robit co chce. Konieckoncov sam to produkuje , neni to Risk Factor alebo komentovanie UFC ze by sa potreboval niekomu zodpovedat.
Dobra diskusia o AI , Boring company len skoda len ze nezabrdli do spacex ale tak asi ani Elon tam nesiel s tym ze bude robit nejake velke odhalenia. Snad si aspon oddychne v tom sense deprivation tanku ktory mu Joe ponukal , rozhodne podla toho ako odpovedal na niektore otazky to potrebuje.
Jsem rád, že více lidem vadí kouření trávy a pití alkoholu ve sdělovacích prostředcích. Problém je, že lidé se prostě opičí v tom co vidí. Obrovské procento populace řeší problémy nebo jako relax od stresu v chlastu, nikotinu nebo trávě. Přitom alkohol a drogy jsou pouze velmi krátkodobým potlačitelem stresu. Naopak jsou násobitelem stresu. Řešit stres návykovou látkou je stejné, jako řešit nedostatek peněz hraním na výherním automatu. Proto je pro mě těžko stravitelné a naprosto nepochopitelné pozitivní vnímání společnosti např.marihuany. Ať si o islámských státech myslíme ladacos, tak v nulové toleranci všech drog mají naprostou pravdu.
Kdybych měl ohodnotit Elona:
Plusové body
- podnikání by mělo směřovat k zlepšení života a nadějnější budoucnosti (tj. ne casina, sázkové společnosti, produkce tabáku atd.)
- lidstvo by mělo obývat více než jednu planetu
- slušně a s respektem se vyjadřuje o policistech (v dnešní americe docela vzácnost. U celebrit teďka frčí hate speech vůči strážcům zákona a naopak je strašně IN se zastávat kdejakého grázla (např. jak předvádí Kim Kardashian))
- létající nejsou praktická (ještě aby se člověk bál, že mu spadnou na hlavu)
- nenosí hodinky (naprosto ze stejného důvodu jako já :D )
Mínusové body
- fakt nejsme v ničí simulaci. Doufám, že to myslel jako fór.
- umělá intelegence je v dnešní době (a dalších nejmíň sto let) spíše neinteligence. Vzbouření robotů je takové trapné holywoodské klišé.
- terraformace, to je no comment
- nadzvukový elektrický letoun s vertikálním vzletem? Teď mi začíná připomínat Nikolu Teslu a jeho tvrzení o vynalezení zbraně na zničení Země.
- veřejně pít tvrdý alkohol a kouřit trávu by nemusel. Myslím si, že je idolem mnoha lidí (mě nevyjímaje), čili neúmyslná propagace návykovým látkám je zbytečná. Měl to odmítnout. Ostatně redaktora měli vyrazit, chlastat a užívat drogy na pracovišti v pracovní době je zákázáno (tedy je zakázáno ve slušných firmách)
Ten letoun není problém už dlouho. Problém je, aby taky někam doletěl. Kdybys chtěl nadzvukový elektrický letoun s kolmým startem a přistáním, který ovšem vydrží ve vzduchu jen deset minut, tak si myslím, že by nebyl problém ho vyrobit už před deseti lety :]
Keby nesnívame, neposúvame sa dopredu :) Zmietnuť fantázie ako teraformáciu, SAI, či už dokonca nadzvukové elektrické lietadlo zo stola len preto, že to dnes nie je potvrdený fakt, nedochádzalo by vo svete k žiadnemu pokroku. Wrightovci by si nevysnívali lietajúci stroj, ktorý je dnes rovnako možný a bežný ako Fordov spaľovací motor, Edisonov jednosmerný a Teslov striedavý prúd či Muskove propulzne pristávajúce Falcony 9....
O týchto veciach musíme najskôr snívať (hoci len v čiste teoretickej rovine), tak niekto príde s prevratnou myšlienkou, vynálezom či aplikáciu existujúcich technológií, ktoré z nemožného urobia teoreticky a neskôr aj prakticky možné, tak niekto príde s nápadom ako nehorázne nákladný proces mnohonásobne zjednodušiť či inak v konečnom dôsledku zlacnieť do bodu kedy sa prakticky možné veci stanú rentabilnými a voila - nový životný štandard je na svete ;)
BTW - keď sa bavili o rešpekte pred AI, vždy tým mysleli SAI - umelú superinteligenciu - to je niečo ako keď neurónovú sieť naprogramuješ aby sa chovala ako človek (napríklad pre potreby robotického asistenta ľuďom s postihnutím), aby sa vedela učiť hocičo sa jej povie, aby bola iniciatívna a učila sa sama podľa indícií, ktoré sama uzná za dôležité. Tvoje zadanie nebude "nauč sa bezpečne a plynulo riadiť auto na takomto povrchu v takom prostredí s takou dopravnou legislatívou" ale skôr niečo abstraktné ako Asimovove 3 zákony (a všetci dobre vieme ako skončil film "Ja robot")...
Dnešná AI nie je omnoho viac nebezpečná ako človek ktorý jej dal do rúk možnosti a zadanie (aj AI na odpal jadrových striel môže byť hlúpa, ale ak sa pokazí, Boh nám pomáhaj ;) ), no až dospejeme do bodu že AI postačí abstraktné zadanie a bude mať správne možnosti (napr. prístup k internetu, kde by si potenciálne vedela hacknúť a podmaniť všetky počítače online na zvýšenie kapacity svojej neurónovej siete), je takmer isté že nad ňou stratíme kontrolu a stane sa nezávislou entitou, ak nie inteligentnejšou (aspoň spočiatku) tak určite rýchlejšou a mocnejšou než ktorýkoľvek jedinec na planéte a bude už len mocnieť a múdrieť... to je dilema ktorá trápi Muska - tomuto bodu sa nevyhneme (jedine ak by sme globálne odmietli vývoj a pokroky v AI, čo sa zhodneme že nehrozí) a tak špekuluje ako sa postarať aby až k tomu dôjde buď SAI nepredstavovala riziko pre náš druh, alebo aby sme s ňou nejakým spôsobom boli schopní držať krok (misia Neuralinku)
Naprostý souhlas, snít se musí. Nicméně snění by nemělo ovlivňovat naše krátkodobé cíle a kritické vidění. Sen je třeba vesmírný výtah. Nicméně nemá smysl zastavit vývoj BFR a začít plánovat výtah, který je v nedohlednu, zatímco BFR můžeme mít v horizontu roků. A už vůbec nemá smysl plánovat a snít o výtahu až na Měsíc, protože je to fyzicky neproveditelný nesmysl dnes i za milion let.
Nadzvukové elekrtické letadlo? Proč ne. Jenom jsem se pozastavil na Muskově prohlášení, že ho navrhl, akorát ho nemá čas nechat postavit. Navrhnout podzvukové konveční letadlo je oříšek pro celý tým leteckých konstruktérů. I přes nespornou vysokou inteligenci Muska, tak on sám není schopen navrhnout fungující model nadzuvkévo elekrtického letadla. To je prostě jenom chvástání, nic víc. Mám obavu, aby z našeho Elona se nestal neomylný a vševědoucí megaloman typu Kim Čong-ila. Ten taky prý navrhoval revoluční letadla.
Největší nebezpečí pro lidstvo je sám člověk. Jeho chování je to co mi nejvíce dělá starost. Kvůli naší lidské nespohlivosti je hloupost brzdit výzkum. Je to takový alibismus dnešní doby, všechno házet na technologie. Máme dopravní nehody? Můžou za to auta. Budeme regulovat automobilky. Jedním dechem, ale snížíme tresty za řízení pod vlivem alkoholu a legalizujeme trávu. Nevím, jestli je tohle správná cesta. Raději než technologie, bych reguloval pomocí zákonů, předpisů s trestů lidské chování.
No, s umělou inteligencí bych souhlasil, je třeba se jí bát, minimálně z ní mít respekt (strach nám moc nepomůže...)
Pití je naprosto normální ve společnosti a ještě k tomu řekl, že je to taky droga :D a to že si jednou natáhl...sám pak řekl že to bylo skoro poprvé...
Je to pracoviště toho redaktora, proč by sám sobě něco zakazoval?
Viděl jste to vůbec?
Zkuste si položit otázku, co je to ta umělá inteligence. Dojdete nepochyně k závěru, že se jedná o algoritmus, který dělá to, k čemu je naprogramován. Žádný software nedělá nic ze své vůle, ani ten nejiteligentnější (a to se nezmění po hodně dlouhou dobu). Pokud někdo naprogramuje dron, aby autonomě hledal a zabíjel lidi, tak tomu dronu je to jedno. Nedělá to, že by chtěl nebo z toho něco měl. Čili není problém v umělé inteligenci, ale ve využití/zneužití technologií. Udělat dálkově řízenou bombu lze i pomocí "hloupého" telefonu. Čili nebezpečí nečíhá pouze v sofistikovaných zařízení. Tedy kampaň za omezování AI je populistické a zcestné. Pokud se to podaří, tak akorát vznikne mraky nové byrokracie, nařízení a kontrol, které budou bránit prospěšnému vývoji ála stopka vývoji kmenových buněk (kdežto zneužití stejně nezabrání). V tomto bodě si může naběhnout i sám Elon, neboť jeho elektromobily využívají AI, stejně tak i v budoucnu Neuralink. Nakonec, aby pak sám nebojoval proti omezování.
Pracoviště redaktora, to je pravda. Původně jsem si myslel, že je to pod nějakým studiem. Tak či onak, Joe Rogan tím prokazuje svoji nevalnou úroveň. Krom toho, svým chováním zbytečně potápí svoje hosty, je to ubožák.
Machine learning is a field of computer science that uses statistical techniques to give computer systems the ability to "learn" (e.g., progressively improve performance on a specific task) with data, without being explicitly programmed. (wiki)
Právě, že se to programuje do určité míry samo, u neuronových sítí se strojovým učením vlastně nikdo nedokáže jasně říct, proč jsou výstupy přesně takové, jaké jsou. Zatím něco nebezpečného nejspíš není na pořadu dne (byť malware s prvky strojového učení by mohl být nepříjemný, co jsem tak četl), ale vývoj v téhle oblasti se zdá být dost rychlý. Rozhodně je lepší být připraven o sto let v předstihu, než aby bylo o rok pozdě. Je fajn o tom přinejmenším mluvit a rozebírat varianty. A třeba softwaru, co se naučí programovat, se mi nezdá nijak zvlášť zcestná, zato při špatném nastavení jeho "motivací" (zrovna mě nenapadá lepší slovo) zní potenciálně velmi nepříjemně.
Jinak možnost, že jsme něčí simulací, je zcela normální hypotéza. Jako zásadní argument pro se říká, že pokud by bylo ve vesmíru možné nasimulovat jiný vesmír, nejspíš to půjde udělat v jednom vesmíru vícekrát/mnohokrát/nekonečněkrát. Čistě na počty by tedy simulované vesmíry měly značně převyšovat množství skutečných vesmírů (o simulaci v rámci simulace nemluvě) a tedy je statisticky nepravděpodobné, že zrovna my jsme v reálném vesmíru. Ale je to jen hypotéza bez jasných důkazů pro kteroukoliv stranu (nebo aspoň já o žádných důkazech nevím). Ale zcestně to nezní a má to zábavné interakce s teologií.
Ale to, že neznáte dopředu výsledek (nebo je těžké jej určit) NENÍ důkazem o umělé inteligenci. To byste se musel bát třeba generátoru náhodných čísel. Krom toho ono to funguje jinak než pospiujete. Selflearning program opět pracuje tak, jak jej navrhl programátor. "Učí se" podle nějakého klíče. Vytváří logické vazby (předem naprogramovaný algoritmus) a na jejich základě určí výstup. Asi nejdokonalejší AI má IBM a jeho Watson. Například v lékařství (zatím tedy nemá valné úspěchy, ale to se snad brzo změní) určuje diagnózu. Snaží se ji určit stejným způsobem, jakým by ji určil lidský mozek. Vstupem jsou pro něj zkušenosti lékařů, seznamy chorob, jejich indikace a průběh a v neposlední řadě možné léčebné postupy a medikamenty. Logickou vazbou propojuje souvislosti. Pokud je diagnźa chybná, tak se Watson dokáže "sám poučit". Čili výstup je trochu překvapením i pro samotné IBM, protože logické vazby jsou tak složité, že je těžké je predikovat. To je příklad dnešní AI. Je nutné se bát? Není. Protože chybná diagnóza není úmyslem Watsonu vás poškodit. Dokonce Watson vás ani nechce vyléčit. On nechce nic, protože nemá "já". Ikdyž může vypadat chytře, jedná se o pouhý matematický úkon. V podstatě inteligence (ve smyslu vlastní vůle) stejný jako kalkulačka. Opravdu nehrozí, že by se Watson zbláznil a chtěl ovládnout svět a vyhubit lidstvo. On vůbec software se težko může zbláznit (dokoce si myslím, že je to nemožné). Může se zacyklovat, může se zaseknout, může dávat chybný výstup na základě chybného algoritmu nebo vstupních dat. Algoritmus to je soubor pouhých čísel a znaků. Nic víc.
Celý humbuk a strach z AI je stejně paranoidní, jako byla obava z LHC CERNu, že vytvoří umělou černou díru, která spolkne svět. Nebo snahy ukončit výkum genetického inženýrství, protože vytvoří supermonstrum. Jsou to naprosté blbosti, které brzdí seriózní výzkum a pokrok lidstva.
Co se týče "něčí simulace vesmíru", tak to není normální hypotéza. Nýbrž jedná se o filozofickou hříčku společenského relativismu, který tvrdí že všechno je možné. Všechno možné není. Stejná hříčka jako "žijeme v něčí simulaci vesmíru - kterých ještě může být nekonečně mnoho" je na stejné úrovni, jako paradox Achilles a želva. Filozofické úvahy (rádoby logické) a racinální kritické úvahy jsou dvě naprosto rozdílné věci. Zabývat se jimi jinak než v zábavném duchu je plýtvání časem a energií. Na filozofických úvahách a společenském relativismu stojí veškerá nábožeství, léčitelství, konspirační teorie apod. Snaží se zdánlivě logicky podložit fungování nesmyslu.
Ale vždyť já neříkám, že se bojím současných umělých inteligencí, naopak jasně píšu, že v současné době nejspíš žádný v tomto směru skutečně nebezpečný software není. Neuronové síti je na začátku potřeba nastavit nějaké parametry, podle nichž pozná, jestli je výsledek žádoucí, a podle toho upraví své chování (to, co jsem předtím popsal slovem "motivace"). No a když tohle nastavíte špatně nebo záměrně nebezpečně, tak samozřejmě, že se podle toho bude chovat. Pokud bude neuronová síť nastavená na to, aby Vás zabila, tak samozřejmě, že se o to bude snažit, pokud k tomu bude mít prostředky. A hlavně se v tom bude zlepšovat, dokud bude stačit hardware. Navíc bych rád viděl nějaký argument pro Vaše tvrzení, že se dostatečně komplexní program nemůže začít chovat nepředvídatelně a třeba i v rozporu s původním úmyslem programátorů. Jakožto zábavnou ilustraci doporučuji Vesmírnou odyseu. A pokud vím, tak Musk má silný odpor hlavně k obecné umělé inteligenci (https://en.wikipedia.org/wiki/Artificial_general_intelligence), pro kterou ta "motivace" už vůbec nemusí být jasná a na jejím nastavení záleží naprosto zásadně.
Jinak všimněte si, že v předchozím příspěvku jsem ani jednou nenapsal "umělá inteligence". Bylo to zcela záměrné, protože to je termín, který si vůbec netroufnu definovat. Přijde mi to jako podobně abstraktní a neuchopitelný pojem, jako vědomí. Věříte na vědomí? A na svobodnou vůli? Já moc ne. Ostatně pokud si dobře vzpomínám, četl jsem o výzkumu, který dokázal sledováním vzruchů v mozku určit finální rozhodnutí dříve, než o něm věděl subjekt (byť už si nevzpomínám, jak to měřili). Osobně si myslím, že náš mozek je jen velice komplexní analogový počítač a vědomí je iluze, stejně jako svobodná vůle. Podle mě by vesmír byl úplně deterministický, kdyby nebylo nahodilosti kvantových jevů. No a tímhle pohledem je veškerý lidský intelekt jen složitější analogií samoučících programů. A víme, čeho jsou schopní lidé, takže mi přijde jako dobrý nápad včas ošetřit, aby naše programy byly lepší, než my, lidé, až jednou budou dostatečně komplexní.
Jak byste definoval hypotézu? Podle mě si myšlenka, kterou se zabývají i fyzici, přičemž přinášejí testovatelné předpovědi pro jednodušší verze simulací, takové pojmenování zaslouží. http://www.osel.cz/6610-ijeme-uvnitr-pocitacove-simulace.html , https://arxiv.org/abs/1703.00058 Navíc v téhle myšlence nevidím zjevné logické chyby, na rozdíl od Achillea a želvy, kde nikoho nenapadlo, že nekonečná řada může mít konečný součet. Nicméně i tehdy bylo jasné, že ta hypotéza ve skutečnosti neplatí a tedy je něco špatně, což o simulační hypotéze rozhodně říct nejde. Pokud píšete, že je logická jen zdánlivě, tak prosím poukažte na chybu v té logice. Je dokonce možné, že by se Vám takovou chybu podařilo opublikovat. Mě to původní trilemma ("The fraction of human-level civilizations that reach a posthuman stage (that is, one capable of running high-fidelity ancestor simulations) is very close to zero", or "The fraction of posthuman civilizations that are interested in running ancestor-simulations is very close to zero", or "The fraction of all people with our kind of experiences that are living in a simulation is very close to one") přijde logicky v pořádku.
Prosím, pokud chcete argumentovat, tak neodkazujte na holywoodskou fikci typu "vesmírná odysea". Stejně jako jiná sci-fi, třeba Start Trek, má za cíl bavit publikum, ne vzdělávat. Jsem obrovský fanda výše uvedených filmů, ale s realitou nemají absolutně nic společného. Jako zdroj seriózní debaty neobstojí.
Vaše citace :
"Navíc bych rád viděl nějaký argument pro Vaše tvrzení, že se dostatečně komplexní program nemůže začít chovat nepředvídatelně a třeba i v rozporu s původním úmyslem programátorů"
Budete se divit, ale výše popsané ještě nikdy nenastalo. Problém je v pochopení, co je ta nepředvídatelná situace. To, že program selže se stává. Dělá chyby to se stává. Ale nikdy neudělá nic jiného, než k čemu byl program určen. Abych lépe vysvětlil, něco z mojí praxe s čím jsem se setkal. ABB dodává svařovací roboty firmám, něco jako v té, které roky pracuji. Ačkoliv jsou na vysoké úrovni, tak zejména při instalaci nefungujíoptimálně. Respektive jejich svary jsou nedokonalé. Často proved svar, kde vůbec neměl být. To je ta chyba SW, která může nastat v rozporu s očekáváním programátora. Ale nikdy nenastana to, že by robot místo svařování začal kreslit obraz. A úplně stejné je to ve všech odvětvých AI. Vždy se bude jeho schopnost pohybovat v mantilech algoritmu programátora. A to i v případě samorozhodujícího stroje. AI nemá ambice nemá vlastní cíl (vždy bude mít stejné ambice a cíl jako jeho stvořitel - programátor). A to se nezmění po hodně dlouhou dobu (desítky, možná stovky let), protože je to velmi velmi těžké.
Co se týče chápání lidského mozku, je to zajímavé co píšte a něco na tom rozhodně bude. Také nevěřím "v duši" (teologického výkladu). Čili je to dost pravděpodobné, že tomu tak skutečně je.
Simulace vesmíru oparvdu je na úrovni Achillea a želvy. Jelikož Vy obhajujete hypotézu, tak Vy musíte přinést důkaz, že je pravdivá. Argument, že je všechno možné je slepá ulice. Mohu tvrdit, že třeba včera ke mě domů přiletěli mimozemšťani. A teď, když je všechno možné, dejte mi naprosto spolehlivý důkaz, že lžu. Bohužel nemůžete. Stejně tak mohu tvrdit, že ve středu Marsu žije civilizace vyspělých permoníků. Dejte mi spolehlivý a nevyratitelný důkaz, že kecám.
Pokud si vážně myslíte, že žijete v Matrixu, tak budiž. Je to Váš názor.
Neodkazuji ha hollywoodskou sci-fi, která je samostatně přinejlepším obtížně pochopitelná, odkazuji na knižní sérii napsanou člověkem, který přišel s nápadem na šíření signálu z geostacionárních družic. A schválně jsem nepsal 2001, protože mám pocit, že důvod, proč HAL zabil posádku, je až v 2010. Pro ty, kdo to nečetli, ve stručnosti šlo o to, že hlavní instrukce pro HALa byla udržet cíl cesty (mimozemský monolit) v tajnosti i před posádkou, dokud se nedostanou na místo. A nejjednodušší způsob byl posádku zabít. Pak se to skutečně dozvědět nemůžou. Logice není co vytknout, je to elegantní řešení zcela v rámci zadání, které programátora nenapadlo a tak ho neošetřil. Jistě, je to umělá hypotetická situace, ale jako ilustrace je to velmi na místě. Těžko mi můžete vyčítat absenci konkrétních případů něčeho, co, jak sám píšete, se nikdy nestalo, jak píšu i já, je v tuhle chvíli pravděpodobně mimo naše možnosti, a navíc se celá diskuze vede proto, aby se to nikdy nestalo a nastavila se pravidla pro to, aby se to stát nemohlo.
Co se týče nepředvídaného chování, pár příkladů:
Samoučící chatbot náckem - https://www.technologyreview.com/s/601111/why-microsoft-accidentally-unleashed-a-neo-nazi-sexbot/ , https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist Jistě je to v mantinelech algoritmu programátora, a stejně jistě je to v rozporu s původním úmyslem programátorů (důkaz pro tohle je i to, že toho chatbota po 16 hodinách stáhli), zde zatím ve zcela nevinném provedení.
Google translate věští - https://www.dailymail.co.uk/sciencetech/article-5983225/Google-Translates-AI-transforming-gibberish-translations-hilarious-doomsday-prophecies.html Opět nevinná zábava pramenící z nesmyslných vstupů a nedostatku učebních textů v malých jazycích. Ale zcela jistě nepředvídané chování, nesmyslný vstup by měl dán nesmyslný výstup, jinak to v extrémním případě může někdo brát jako překlad (z některých jazyků lze přeložit i lorem ipsum, nebo šlo, když jsem to naposled zkoušel, a to už si někdo se špatnými informacemi může splést s jazykem, narozdíl od opakování slova "dog")
Robot opakovaně utíká, navdory přeprogramování - https://www.washingtonpost.com/news/morning-mix/wp/2016/06/23/after-escaping-its-creators-a-second-time-russian-robots-final-destination-may-be-scrap-heap/?utm_term=.70a909ed0bce , https://www.sciencealert.com/the-same-robot-keeps-trying-to-escape-a-lab-in-russia-even-after-reprogramming Může jít o reklamu, případně využití omylu (nezavřených dveří) k reklamě. Nebo se skutečně opakovaně snaží jít k východu, aniž by jeho programátoři věděli proč, jak tvrdí. Nepodařilo se mi rychle ověřit, jestli na ten TechCrunch dorazili, nebo ne. Pokud ne, tak to skutečně mohl být problém.
Robot chce vyvraždit lidstvo - https://www.youtube.com/watch?v=W0_DPi0PmF0 Jasně, jsou to jen slova. Ale říká je bez pobízení (spíš navzdory pobízení, ať řekne ne). Otázka je, jak těžké by bylo přesvědčit AI bez dostatečných pojistek a se schopnostmi skutečně nějak ovlivnit okolí. A že budou schopné ovlivnit okolí, je jasné. Jeden oblíbený problém z blízké budoucnosti, na který zcela jistě dojde: jak budou samořídící auta řešit tramvajové dilemma?
Všechny problémy by samozřejmě měly být řešitelné správným nastavením mantinelů algoritmu programátora. Ovšem ty mantinely musí být dokonalé, úplné a neprostupné, zcela vylučující alternativní, potenciálně nebezpečné řešení, které nikoho nenapadlo (a jsme zpátky u HALova řešení "Když všechny zabiju, nemůžou odhalit tajemství"). Pokud se tohle dodrží, je to v pořádku. A o to prostě jde, nastavit absolutní mantinely, zkusit vymyslet nečekaná řešení a vyřešit jejich dopady, než se stanou. Jinak řečeno to všechno včas zregulovat, než nastane velký problém. Tedy to, co chce Musk. Navíc obecná umělá inteligence nutně musí mít poměrně volnou ruku, aby mohla fungovat pro obecné řešení problémů. Pak samozřejmě záleží i na problémech, které se jí předloží k řešení. Pokud jí někdo předloží zadání "zabij všechny lidi", nesmí ho poslechnout, což je třeba ošetřit. A ne všechna potenciálně problematická zadání budou takhle přímočará, a některá neproblematická zadání mohou mít problematická řešení.
Jinak celkem jednoduchý způsob, jak zařídit poměrně značný problém, jsem nastínil v prvním příspěvku. Naučte samoučící program programovat (tedy jeho cílem je psát programy), což by nemuselo být těžké, a vypusťte ho na internet. Pokud navíc bude mít za úkol psát programy, co samy umí programovat, psaní programů se stane obdobou množení, a najednou máme co do činění s evolucí. Pár tisíc iterací a budeme mít na krku takový malware, až nám budou oči přecházet.
Jsou dva typy hypotéz. 1) existuje to a to 2) všechno se chová tak a tak. První z principu nejde vyvrátit, druhá z principu nejde potvrdit. První lze pouze potvrdit (najít to a to), druhá lze pouze vyvrátit (najít něco, co se nechová tak a tak). Vaši permoníci na Marsu jsou hypotéza toho prvního typu. Nejdou vyvrátit, byť lze snižovat pravděpodobnost toho, že je to pravda, v tomto případě prohledáním středu Marsu, což se ovšem v současnosti v praxi nedá provést. Mimochodem opakujete starý argument, mj. z diskuze o Bohu https://en.wikipedia.org/wiki/Russell%27s_teapot Simulační hypotéza je spíš toho druhého druhu. Dostatečně dobrou simulaci nemůžete vyloučit. Pokud nebude dokonalá, můžete prokázat, že v simulaci jsme, ti fyzici, co jsem odkazoval minule, se snaží navrhnout, jak na to. Jinak vědecká metoda funguje tak, že uděláte nulovou hypotézu v opačném smyslu (tady "Nežijeme v simulaci") a tu vyvracíte.
Jinak já nevěřím, že žiju v Matrixu. Ani nevěřím, že v něm nežiju. Vzhledem k tomu, že nemám důkaz ani o jednom, se nekloním ani na jednu stranu, dokud ten důkaz mít nebudu. Jsem si vědom, že ta možnost existuje, a že pokud jsou výchozí předpoklady správné (trilemma na konci minulého příspěvku), je pravděpodobné, že jsme simulace. Pokud ne, těžko říct. Logickou chybu tom trilemmatu nevidím, musím ho tedy považovat za pravděpodobně správné. Ve výsledku nevím, jak to nakonec je. To je asi náš hlavní problém. Vy nemůžete vědět, že nejsme simulace, a přesto to tvrdíte. Pokud byste autoritativně tvrdil, že simulace jsme, budu se s vámi hádat, že možná nejsme. Ovšem, jak už jsem řekl, pokud platí to trilemma, tak pravděpodobnost stojí na straně toho, že simulace jsme. Ale ani pokud platí, ještě to neznamená, že zrovna my nejsme v tom (v extrémním případě i) jediném skutečném vesmíru, jakkoliv je to nepravděpodobné. (Ano, naznačuju, že může být více vesmírů. Ne, neříkám, že to tak je. Jen, že to být může. Analogická situace.) Absolutní tvrzení jste pronesl vy ("fakt nejsme v ničí simulaci. Doufám, že to myslel jako fór."), důkaz je na vás.
Neustále sklouzáváte z vědy do filozofie. Věda prodělala revoluci díky kritickému myšlení. Čili když něco tvrdíte, tak důkaz musíte přinést Vy. Když bych znova použil můj příklad s permoníky v jádru Marsu, tak sice je to nesmysl, ale definitně ho vyvrátit je těžké.Krom toho bych mohl přijít s další hypotézou, že třeba ty permoníci nežijí na Marsu, ale na Jupiteru. Takhle bych mohl pokračovat do nekonečna a Vy byste jenom hledal a složitě bádal, jak vyvracet nesmysle, které bych mohl plodit v obroském množtví za krátký časový interval. Čili je to lepší otočit. OK, tak tvrdíš že permoníci žijí na ve středu Marsu a jaký máš pro to důkaz? Já odpovím, že žádný, ale že by to tak mohlo být. A tím to končí. Že by něco mohlo být, neznaméná, že to tak je. Proto akceptovat něco za fakt bez důakzů je krokem zpět. Proto tvdím, že je Vaše představa, o simulaci vesmíru vědecky nepotvzená - tedy mylná.
Vaše citace : Pokud byste autoritativně tvrdil, že simulace jsme, budu se s vámi hádat, že možná nejsme.
Takže jinými slovy, vlastně jste vždycky v opozici. Z Vašich předchozích komentářů na jednu stranu tvrdíte, že všecho je možné, ale zároveň chcete mít 100% jistotu pravosti tvrzení. To se vzájemně vylučuje. Pak není možné dospět k závěru.
Já jsem technik, čili pro mě jsou klíčová fakta a důkazy. O filozofii si tedy se mnou moc nepokecáte.
A jsme u jádra věci. Něco tvrdíte Vy. Já tvrdím, že něco je pravděpodobnější, než něco jiného, což neznamená, že to tak skutečně je. Podle Vaší analogie, vy jste neřekl, že by tam ti permoníci mohli být, ale že tam určitě jsou (tedy konkrétně s naprostou jistotou, že nejsme simulace). Kdybyste řekl, že si MYSLÍTE, že nejsme simulace, a ideálně proč Vám to přijde nepravděpodobné, neřeknu ani slovo. Vy jste se projevoval, jako byste měl nezvratný důkaz, což jsem považoval za krajně nepravděpodobné. To, že je něco vědecky nepotvrzené, neznamená, že je to mylné. Jen to, že to (zatím) nejde rozhodnout. Podle Vaší logiky, já nemám důkaz, že jste muž. Tím pádem nemůžete být muž. Což je očividně špatný postup. Správný je, že když nemám důkaz, tak nemůžu rozhodnout. Mám jen něco, co podporuje hypotézu, že muž jste (píšete v mužském rodě, o kosmonautiku se zajímají spíše muži a podobně). Takže je pravděpodobné, že jste muž, ale nemůžu to říct s jistotou. V opozici proti Vám jsem proto, že pronášíte tvrzení s absolutní platností, místo abyste řekl, že to tak nejspíš bude, možná bude, může být s velkou (nebo třeba malou) pravděpodobností nebo něco podobného. Pokud něco pronášíte s absolutní jistotou, jak to Vy děláte, musíte pro to mít absolutní důkaz. Já to nedělám, i v normálním hovoru se tomu intenzivně snažím vyhýbat a uvádět míru jistoty toho, co říkám. A například se třeba taky snažím "počítat ruce" (tohle vím z první ruky, z druhé ruky, z třetí ruky,...).
Jinak to, co jsem popisoval jsou naprosté základy metodologie vědy. Což teda asi technicky vzato spadá do filozofie, ovšem s takovým přesahem do vědy, že to prostě nejde odmávat prohlášením, že Vás zajímá věda a ne filozofie. Bez tohohle by se věda nerozvinula tam, kde dnes je.
Já jsem vědec. Pro mě jsou taky důležitá fakta a důkazy. Ovšem naprosto zásadně důležité pro mě je vědět, že skoro nic není jisté, a jakou váhu mají alternativní vysvětlení. Přehlížet možnosti nebo je odepsat na první pohled je pro mě cesta k chybným závěrům a stahování článků.
Myslím, že se moc soustředíte na to, co je možné dnes, ale nechcete připustit, že situace na poli AI může být za pár (desítek) let dost jiná. Elon se nebojí, že jeho Tesly se příští rok vzbouří a začnou přejíždět lidi na chodnících, on se bojí, že vzhledem k obrovským investicím do AI bude vývoj moc rychlý a neopatrný a pak dojde bez nějakého dohledu k průlomům na poli obecné inteligence, která se vymkne kontrole a pak už bude pozdě na nějakou regulaci. Teorie je taková, že možná máme jen jednu šanci vynalézt obecnou umělou inteligenci, tak je potřeba k tomu přistupovat zodpovědně. A je extrémně obtížné odhadnout, jestli k nějakému klíčovému průlomu dojde za 10 let nebo za 50 let. Takže čím dříve se o tom bude mluvit a řešit se to, tím lépe.
Nejde o to, že bych si nepřipouštěl změnu, já v ní doufám. AI stejně jako expanze do vesmíru, genetické inženýrství, jaderná fúze a průmyslová revoluce 4.0, atd. nám otevírá dveře do budoucnosti, o které se nám ani nesnilo. Naši pravnuci budou naši současnost vnímat jako my středověk. Stejně jako ve sředověku brzdila náboženská dogmata a strach z nových objevů pokrok lidské rasy, tak nyní se děje to samé jako přes kopírák. Progres genetického inženýrství nám úspěšně sabotuje církev a falešná morálka tzv."hraní si na Boha", průmyslovou revoluci 4.0 strach ze ztráty pracovních míst, a AI začíná postihovat paranoia ála Skynet z Terminátora. Vždy pokrok přinesl prosperitu pro všechny a současné přelomové objevy zlepší naše životy. Genetika může vyřešit problém nejenom neléčitelných nemocí, ale i znatelně prodloužit život. Průmyslová revoluce 4.0 odstraní špatně placenou a namáhavou (leckdy zdraví škodlivou) práci a vytvoří nová vysoce kvalifikovaná (a dobře placená) místa. AI svět neovládne, naopak bude sekundovat v takových profesích, jako je lékařství nebo strojírenský design.
Nicméně tahle budoucnost nemusí nastat (nebo nastane, ale zbytečně za dlouhou dobu). Jediná regulace AI nebo SAI je totiž její zákaz. Je to naprosto stejné jako s jádrem. A mám velké obavy, že to k tomu úspěšně spěje. Kolem regulace a zákazu se motá hodně prominetních lidí a vyvolávání strachu přiživují média (ne že by tomu rozumněli, ale katastrofické předpovědi se dobře prodávají). Opravdu mě vadí, že takový velikáni jako Musk nebo Hawking přidávají do ohně.
*ehm* *ehm* Vždy pokrok přinesl prosperitu pro všechny *ehm* *ehm* zámořské plavby *ehm* *ehm* vyvraždění indiánů *ehm*
Pardon, chytil mě záchvat kašle.
Nic není černobílé. Víte, že Indiáni byli velmi krutí a násilní ? Otroctví, lidské oběti nebo vivisekce (Aztékové) byli běžné. Nebyli o nic lepší než španělé, byli pouze slabší.
Zkuste se podívat na takový airbag. Zachránil tisíce a tisíce lidí. Tisíce jich taky zabil (těch, co nebyli připoutáni pásem). Chcete říct, že airbag přináší smrt a ne pokrok?
Ne, chci říct, že výrok "Vždy pokrok přinesl prosperitu pro všechny" je tak přehnaně absolutní, až to prostě není pravda.
Hodnotit morálku a kulturu Indiánů, ať už jakýchkoliv, si netroufnu, protože o nich dost nevím. Ostatně s jejich znalostmi mohly být lidské oběti celkem racionální a morální. Pokud jedna lidská oběť zajistí dobrou úrodu a ochrání tisíc lidí před smrtí hlady, je to ve výsledku velmi výhodné (pro komunitu, ne pro tu oběť). To, že to podle našich informací takhle nefunguje, pro jejich rozhodování nic neznamená.
Pokrok properitu přináší. Naše životní úroveň to jasně dokazuje. Neříkám, že všem rovnoměrně, ale ano všem do určité míry. Dokonce i těm nejchudším afričanům. Kdyby nebylo vysoké úrovně západních zemí, kdo by jim pak pomáhal? Lékaři co tam jezdí využívají GPS a satelitní telefony. Bez nich by nebyla pomoc tak efektivní. Čili technologie zlepšuje lidem život přímo i nepřímo a to opravdu všem. Bez progresu v zemědělství a pod. by nebylo možné, aby Země uživala 7miliard lidí. Bez znalosti a vědy, která akcelerovala hlavně v posledních 150-200let, bychom nejspíš už nebyli. Nebo byli, ale ve značně zredukovaném stavu.
Hodnotit indiánskou kulturu nechci, protože mám rád techniku a tohle je technicko-vědecký web, ne historický. Jenom jsem obrátil Váš argument, abyste všechno neviděl tak strašně černobíle.
Jasně. Já tu zase narážím na nezvratnou absolutnost Vašich tvrzení, kterou rozebírám níže. Přitom není těžké říct to tak, aby to skutečně byla pravda. "Pokrok přináší prosperitu většině/společnosti/lidstvu". To je všechno pravda. To, co jste napsal Vy, pravda prostě není.
Nikdo nechce AI zakázat. Někteří jen usilují o to, aby existovala nějaká pravidla pro bezpečný vývoj těchto potenciálně extrémně nebezpečných technologií.
Bohužel chce (neříkám, že přímo Musk). Situaci docela sleduji a ten odpor veřejnosti vůči AI je čím dál silnější (a bude sílit se strašením veřejnosti). Naštěstí SW firmy to ignorují a dál pokračují ve své práci. Nicméně dav, ačkoliv daným tématem nepolíbený, má volební právo. Takže je otázkou času, kdy začnou politici naslouchat. Z toho mám strach. Nejspíš nastanou dva scénáře, buď se výzkum přenese do Asie (příklad genetiky - do Číny a Jížní Koreje) nebo se zastaví (aby o pár desítek let, až budou lidi rozumnější, se opět naplno rozjel). Tak či onak bude pokračovat, otázkou je, proč bychom nemohli z pokroku benefitovat dříve (třeba i naše generace).
AI není extrémně nebezpečná technologie, extrémně nebezpečná je jenom lidská hloupost a bezohlednost. S naprosto stejným postojem se setkávám u odpůrců jádra (btw. bez jádra expanze do vesmíru není možná). Jádro není nebezpečné, je bohužel zneužitelné. Stejně jako AI a stejně jako jiná každá věc - od kamene počínaje po raketu konče. Problém je v lidech, tak je potřeba regulace (například přísné tresty za porušení bezpečnostních pravidel, nebo zneuží). Teď jsem si vzpomněl na útok náboženského pomatence náklaďákem v Barceloně. Politici začali uavžovat o regulaci provozu náklaďáků v městech. To může navrhnout jenom naprostý idiot, protože problém nebyl v náklaďáku, problém byl v útočníkovi. Takže kdyby neměl k dispozici náklaďák, tak vezme auto. Zakažme tedy auta. On vezme nůž. Zakazovat a omezovat výzkum je úplně mimo.
Ale abych se vrátil k tématu. Na stvoření AI, kterou popisujete není mmt HW. Co se týče SW stránky, tak na tom nejsme o nic lépe. Zatím máme pouze teorii, jak toho dosáhnout. Výzkum je zatím v plenkách, takže co chcete regulovat? Zkuste si představit, že se přenesete časem do minulosti. Řekněme do 80.let. Založíte firmu na samořídící auta. Jelikož není k dispozici dostatečně výkoný HW a ani SW, budete se tedy spíše pohybovat v teoretické rovině. vaše pokusy budou nejisté a vývoj pomalý. Ale začne se o Vás zajímat veřejnost. Jelikož společnost je nepřipravena na takový pokrok, tak začne spekulovat. Celebrity a média se toho chytí, protože je to šance na zviditelnění. jaká bude reakce? Pravděpodobně nikdo Vám neřekne, že Váš výzkum jednou povede k bezpečnější dopravě. V tu dobu bude pro lidi nepředstavitelné, že by to co dobře znají (kalkulačka a sálové počítače), mohlo řídit auto lépe neý oni sami. Takže se začnou malovat bubáci. Auta co porážejí chodce, tisíce dopravních nehod a kolabs logistiky. Prostě armageddon. Pak nějaká chytrá hlava navrhne regulaci toho ďábelského a extrémně nebezpého výzkumu. Jelikož se nebude vědět co vlastně se má regulovat, tak se to raději zakáže. Proč riskovat. Pak přijde Google, Musk a další. A ejhle. Nemůžou začít s realizováním vývoje samoříditelných aut, protože máte směrnici, která to zakazuje. Budou následovat roky právních bitev aby vůbec mohly zazčít (genetika zýkazem např.ztatila nejméně 8 let). Pravděpodobně docílí zrušení zákazuje, ale nedocílí zrušení regulace. Úředníci, kteří nebudou o věci nic vědět, budou diktovat těm, co tomu rozumí, jak pracovat. Samoříditelná auta by dodnes nebyla a nebyla by ani za dalších dvacet let. A teď mi zkuste říct, považujete samoříditelná auta za extrémně nebezpečnou technologii? Nesnažte se soudit obejvy budoucnosti dneším pohledem. Je to totiž dosti krátkozraké.
Neodpustím si ještě jednu úvahu. Chtěl bych Vás slyšet, kdydy Musk tvrdil opak. Kdyby řekl, že AI je budoucnost lidstva, něco jako kolonie na Marsu. Že je nutné jej plně rozvíjet. Pravděpodobně byste mi teď dával plusové body a přitakával mi.
Je zvláštní, že na jednu stranu je AI extrémně nebezpečná technologie, ale pokus o propojení člověka a stroje Neuralinkem nebezpečná není? Musk je úžasný člověk. Je to vynálezce, vizionář a hlavně je neuvěřitelně schopný svoje vize dotáhnout do konce. Mmt je to jediný člověk, který chce a může dostat lidi na Mars v době našeho života. Není ale neomylný Bůh. Stejně jako selhala jeho ponorka (která byla pro akci absolutně nepoužitelná), tak i jeho názor může být na AI chybný.
Omlouvám se za extrémně dlouhý komentář, ale účelem Vašeho webu je informovat a nutit lidi přemýšlet. A to je jenom dobře. Vaše práce je excelentní. Ze stejného důvodu jsem se rozepsal i já.
Aby to nevypadalo, že jsem a priori vaší opozicí, tady v tom příspěvku máte velmi často pravdu a některé jeho části bych podepsal.
Ale. Správná regulace samořiditelných aut by byla povinnost důkladně otestovat, že je to bezpečné alespoň na úrovni, jako když řídí člověk, než se to pustí do světa volně, plus je vhodné vést odbornou diskuzi o potenciálních problémech a jak se jim vyhnout. Správná regulace genetických modifikací je prokázat, že to neškodí konzumentům ani ekosystému, plus je vhodné vést odbornou diskuzi o potenciálních problémech a jak se jim vyhnout. Správná regulace jaderné energie je stavět to tak, aby to nemohlo ohrozit okolí, ideálně ani samovolně, ani při úmyslném útoku zvenčí, plus je vhodné vést odbornou diskuzi o potenciálních problémech a jak se jim vyhnout. Správná regulace AI, jak to vidím já, je pečlivě ověřit, že se chová podle očekávání i v neočekávaných situacích (nakolik lze neočekávané situace očekávat) a prozatím AI se širším záběrem nedávat potenciálně nebezpečné nástroje (zbraňové systémy, volné připojení k internetu), plus je vhodné vést odbornou diskuzi o potenciálních problémech a jak se jim vyhnout. Zákaz je samozřejmě blbost.
Ano, Neuralink je potenciálně nebezpečný, zejména pokud by někdo přišel na způsob, jak modifikovat mozek nebo tělo pomocí externího připojení (třeba mazání vzpomínek). Až někdo začne o podobných věcech nasazených v praxi uvažovat, budu říkat, že by se to mělo na odborné úrovni prodiskutovat a vhodně zregulovat. Zdůrazňuji slovo vhodně. Nevhodná regulace (např. EU a genové inženýrství) je samozřejmě hrůza.
Vy mi nerozumíte. Já jsem proti regulaci VÝZKUMU, ne proti regulaci produktu. Před vypuštěním na trh se samozřejmě produkt musí řádně otestovat a pokud je to nutné tak regulovat (a to ne jenom z bezpečnostního, ale i třeba ekologického důvodu apod.). Proto jsem zastáncem jádra typu Temelín, ale odpůrcem malých jaderných mobilních elektráren (protože ty neuhlídáte).
Výzkum by neměl být regulován právě z důvodu, že jednak neznáte výsledek a ani způsob dosažení výsledku. Navíc sebou přináší i pozitivní externality, tedy nečekaný objev nebo přijdete na řešení jiného problému. Třeba penicilin je jednou z takových pozitivních externalit. Proto je nepraktické sepisovat nějaké regulace, protože nevíte co vlastně regulovat. Prakticky tímto zabijete výzkum hned v počátku. Krom toho, věda se za posledních 150let hodně změnila. Už to nejsou objevy jednotlivců, ale týmů skládající se z vysoce kvalifikových (úzce zaměřených) odborníků. Nejde tedy posuzovat přínosy/nebezpečí jejich práce pouze ze všeobecným přehledem. Čili úředník regulátora s povrchní znalostí má diktovat specialistům co mají dělat? A nebo co hůř, má diktovat veřejnost? Pro média je hlavní pozornost veřejnosti, protože ta přináší zisk z reklam. Takže, aby je někdo četl potřebují nějakou bombu o které se bude mluvit. Co třeba takle AI ? A abybylo dílo dokonáno, tak potřebujete někoho známého a slavného, kdo to patřičně okomentuje dá v plén svůj názor. Ikdyž je mezi slavnými hodně vědců (Hawking, Kaku atd.), tak stejně dominují herci, sportovci, zpěváci nebo křiklouni z nejrůznějších organizacích. A jak myslíte, že objektivní a seriozní bude názor takového fotbalisty, jenž hlavu zásadně používá jenom na hlavičky? Teď to nějak nepřeháním, stačí se podívat na GMO potraviny. Drtivá většina zarytých odpůrců ani neví, co vlastně GMO je. Ale jsou zásadně proti, protože takový je společneský trend a masáž společnosti. Getika trpí názory "důležitých" lidí nejvíce. Obávám se, že AI dopadne stejně. Přitom právě tato disciplína má dostatek financí (to je rarita, výzkum je všeobecně podfinancovaný) a to dokonce ze soukromých peněz.
len taka drobnost GMO potraviny uz niesu o vyskume ale o produkte a tam snad verejnost ma pravo rozhodovat co chce a co nechce zrat
vies vobec o tom, ze sa robil vyskum kukurice v mexiku a ze stopy po kontaminacii od tej slavne gmo kukurice od monsanta sa nasli aj v tych najodlahlejsich horskych dedinkach v mexiku? a to je gmo kukurica v mexiku zakazana a gmo plodiny mali byt sterilne prave preto aby sa nekontrolovatelne nesiril ich genom, ale ako sa ukazuje aj tak k tomu dochadza, takze ak raz nieco vedci pri gmo doseru a pride sa na to az neskor tak to moze narobit riadnu neplechu ak sa to rozsiri aj do povodnych odrod
a aj vyskum musi byt regulovany lebo keby nebol tak kto zaruci, ze vedci nebudu na "mengeleho" vyskum vyuzivat chudobnych ludi ktorych si za par susnov kupia na pokusy pri ktorych pridu o zivot?
mozna pre teba by to bolo normalne, ze farmafirmy zneuziju situaciu na to aby mohli robit neeticke vyskymy na ludoch, ale nastastie vacsina populacie tvoje nadsenie pre neregulovany vyskum nezdiela
aj genovy vyskum na ludoch musi byt regulovany
neviem ako ty, ale mna predstava, ze by tu pobehovali nejake geneticke mutanty dost desi :) a skor ci neskor by neregulovany vyskum ku genetickym mutantom dospel
I výzkum může uniknout a být nebezpečný. Jistě je fajn pracovat na výzkumu eboly, ale je na místě mít ho regulovaný tak, aby se divoké kmeny viru mohly zkoumat jen v biosafety level 4 laboratořích (povinnost nosit přetlakové skafandy a podobně). I tohle je regulace, a je rozumná. Pak jsou regulace, které nejsou rozumné (např. přístup EU ke genetickým modifikacím) a ty jsou špatně a jsem proti nim úplně stejně, jako vy. A souhlasím, že o tom nemá rozhodovat jen tak od stolu úředník, natož veřejnost. Jak píšu, má se vést odborná diskuze o potenciálních problémech a jak se jim vyhnout. Přesně jak stojí tady v článku: "Byl by rád, kdyby vznikla nějaká komise, která by nejdříve sledovala vývoj na poli umělé inteligence a až by se s problematikou dostatečně obeznámila, navrhla by nějaká pravidla pro bezpečný vývoj těchto technologií." Nic o úřednících regulátora s povrchní znalostí, nic o veřejnosti. Jen lidé, kteří budou mít za úkol se podrobně seznámit s problematikou a společně odhalit její úskalí. Proč Vám tohle vadí?
Musím říct, že tahle diskuze mě velice těší. Zajímavá a hlavně civilizovaná, i když spolu v mnohém nesouhlasíte. :)
Nabídli mu Whisky, tak si dal skleničku. A potáhl si z cigaretz s trochou marihuany. Jednou. A v Kalifornii to je legální.
Legální ano, morální ne. Už Elon plní média, na Bloombergu spekulují o jeho schopnosti dál vést Teslu. Možná je to jedno potažení, ale otevřeně a na veřejnosti se to opravdu nehodí. Naopak, mohl zabodovat tím, že by ten hnus odmítl. Je to stejně nešťastné jako jeho "pedofil". Je to škoda, kazit si blbostma dobré jméno. Zejména v době, kdy má Tesla značné finanční problémy. Kdyby padla, tak nejenom, že by svět přišel o nejlepší automobilku (můj názor, elektromobily jsou cool), ale mohlo by to negativně poznamenat i Space X (a to bychom všichni neradi).
Myslím, že ti, kteří ho napadají, v životě nic nedokázali, jsou to nuly s IQ tykve. Bohužel, je to velká část lidské rasy, které byly dány do rukou prostředky jako internet a smatphone a mají tak možnost vyjadřovat se k věcem, o kterých vůbec nic nevi, ani je nechápou, ani jim nerozumí. Ale jak říkal Voskovec a Werich, boj s lidskou blbostí se nedá vyhrát, ale musí se stále vést.
Nadzvukový elektrický letoun? To ukradl Tonymu Starkovi.
Ne ne- On mu ho nabidnul v Ironmanovi 2 ;-)
Pravda, moje chyba..... Měl bych si to zopakovat, mezery v základním vzdělání.
Moc hezký přehled a shrnutí Petře, místy jsem se docela i zasmál. :-)
Moc děkuji, přesně tenhle přehled jsem všude hledal :).
pekne :) jj, bolo to také :D ...my sčítanejší v Tesle a SpaceX sme počas toho rozhovoru len čakali kedy sa konečne začnú baviť o veciach čo nás zaujímajú, nadskočili sme kedykoľvek sa téma zvrtla konečne správnym smerom len aby sme zistili, že v skutočnosti nikam nesmeruje a len tak kĺže po povrchu a kde tu o niečo zakopne :D ...ale čo už - aj takéto rozhovory treba.... človeka už omrzí počúvať stále tie isté tlačové vyjadrenia dookola :D ...takto sa preriekol možno viac ako by sa bol, keby ho bol moderátor tlačil do otázok, ktoré zatiaľ neboli verejne zodpovedané :)
Škoda, jsem doufal že se dozvíme něco nového o BFR třeba
Mám to stejně.
Myslím, že si všechno schovává na IAC2018 (1. října).
Musk tam letos nebude.
Bohužel o SpaceX se vlastně vůbec nemluvilo.