#05 – Strojové učení – Umělá inteligence funkční i nefunkční

Strojový přepis

Tento text přeložil z hlasu počítač, odpusťte tedy prosím gramatiku a stylizaci textu. Na druhou stranu, k dílu o strojovému učení to prostě patří:

David: [00:00:03] Ahoj já jsem David a vítám vás u dalšího podcastu Zjistí víc. Mám tu i Kubu…

Kuba: [00:00:08] Ahoj

David: [00:00:08] … a dneska se budeme bavit o umělé inteligenci a strojovém učení.

Kuba: [00:00:12] Pojďme se nejdřív bavit o tom co je to umělá inteligence. V sedmdesátých letech když počítačoví vědci zjistili že jim to už počítá jízdní řády tak si řekli Pojďme vyzkoušet jestli by to nedokázalo chápat řeč psanou mluvenou a jestli by to nedokázalo chápat kontext a povídat si to s náma tam začínají snahy o tu opravu lidskou umělou inteligenci tak jak ji chápeme z těch sci fi filmů. To byla na tehdejší dobu velmi ambiciózní představa. Dodneška je dodneška něco takovýho neumíme a víme že ještě následujících několik dekád to nepůjde. To znamená. A aby se nepletli pojmy tak tomuhle říkáme obecná umělá inteligence. A dneska už se o to ani moc nikdo nesnaží. Takže když se budeme bavit o obecný umělý inteligenci tak myslíme tady tu věc kdy počítač chápe jako člověk myslí jako člověk a je to nedosažitelná věc.

David: [00:01:06] Zatím a měl Kubou už tehdy představu o tom k čemu by to bylo dobrý?

Kuba: [00:01:10] Velmi dobrou. Oni už v šedesátých letech chápali že rozhraní mezi počítačem a člověkem se musí nějakým způsobem změnit. Že klávesnice a myš nejsou úplně jako výborná věc. Respektive tam teprve vzniká ta myš. Vlastně v šedesátých letech jsou ty velký prezentace kdy tam byla spousta vizionářů která vlastně přišla s vynálezem který společnost brala jako bav. A oni říkali Ne ne tohle je jenom mezistupeň. Jo my si chceme s tím počítačem popovídat chceme mu zadat nějakej příkaz. On bude mít nasát veškerý vědění lidstva. Chápe tě a už vlastně je to jenom taková jako prodloužená tvoje buď ruka nebo oko nebo mysl. Takže tohle dneska nazýváme obecnou umělou inteligencí. Párkrát se o ní tady ještě utřeme v díle ale po většinu času se budeme bavit o tom čemu dneska říkáme umělá inteligence. On je to trošku takovej buzzword. Když ti bude dneska dvacet lidí vyprávět o umělé inteligenci tak tím budou myslet jedenadvacet věcí. A z toho polovina se nebude týkat umělé inteligence tak jak ji chápeme. Když padly snahy o tu obecnou umělou inteligenci tak lidi pochopili že ji sice neumí vytvořit ale ty jednotlivý dílčí podskupiny. V těch se nám dařilo docela dobře to znamená obor umělá inteligence stále existuje jenom se rozpadl na několik pod oborů a každý z těch oborů se věnuje nějaký konkrétní specifický činnosti. A my se dneska budeme bavit o jednom z těch pod oborů kterýmu říkáme strojové učení v angličtině machine learning. A je to vlastně tak pokročilá statistika že už to navenek pro pozorovatele vypadá že ten algoritmus má až skoro jakoby vlastní inteligenci. Dokáže se rozhodovat skoro intuitivně jako člověk. Taky dneska budeme často používat zkratku AJA což je z anglického art official inteligent. Je to umělá inteligence. Tak kdyby jsme si měl říct co a já jí není. Jo ve chvíli kdy si koupíš novou pračku novou myčku nebo kávovar a na tom je nalepená samolepka že to má umělou inteligenci tak to je právě zneužití toho významů pro něco marketingového. Tam není důvod aby se tomu říkalo umělá inteligence. To že si pračka zváží kolik je v ní prádla a podle toho dávkuje prášek tak to není umělá inteligence.

David: [00:03:29] Tam jde o to že ta pračka to vlastně sama nerozhodne. Ona to má už předem přidaný případně ty tam přidáš nějakou informace a ona jenom na základě toho se pak rozhodne co udělá.

Kuba: [00:03:38] A tady je prostor pro takovou krátkou technickou vsuvku jenom kratičkou důležitou pro zbytek našeho dílu. Ty máš vlastně když to hodně zjednodušíme dva základní typy. Jak můžeš naprogramovat počítač a jedno jestli je to počítač tak jak ho známe na stole nebo je to počítač uvnitř auta uvnitř kávovaru uvnitř myčky to je jedno. To jsou vlastně už dneska počítače samy o sobě. A máš něco čemu se říká procedurální programování. To je to jak programujete počítače posledních 60 let. Přijde programátor a řekne Pokud se staly tyhle podmínky pak udělají tohle. Pokud se staly nějaký jiný podmínky tak udělej něco jiného. A vlastně je to jenom veliká sada hloupých příkazů kdy ten počítač se podívá a odshora dolů jede a ten programátor do toho vnáší veškerou svoji inteligenci. Ten počítač ten program je jenom tak chytré jako jeho programátor a nemá tam vůbec žádnou vlastní autonomii. Vůbec nic nerozhoduje sám jenom se dívá který podmínky byly splněny a vybírá ten správný řádek v tomu kódu který provede. To je procedurální programování a pořád je to nestandardní vyšší nejběžnější způsob jakým se dneska programuje. A pak právě můžeš přijít ještě s druhým způsobem jak naprogramovat stroj. A to je že ho necháš naučit se z obrovského vzorku dat nějaký souvislosti.

Kuba: [00:05:01] A neříká mu pokud něco pak něco. Ale jenom mu řekneš Hele tady máš prostě sto tisíce deseti miliony nějakých základních dat. Prostudují si je udělej nad tím nějaký statistický kouzla a já ti pak půjdu dávat ty jiný vstupy a ty mi na základě nich řekneš co by si proved. Ale tu inteligenci do toho už nevynáší ten programátor ale to že ten počítač správně pochopil ten vzorek dat. Koukáš na mě trochu vyděšeně. Pojďme si dát příklad nejtypičtější. A na čem se to nejčastěji ukazuje jsou šachový počítače. Do nějaký až velmi nedávný. V minulosti se šachový počítače programovali procedurálně to znamená přišel nějakej programátor kterej zároveň dobře hraje šachy a naprogramoval tam. Pokud je věž tady a střelec tady a nepřítel v pěšec je tady tak udělají nějakou nějakou akci což jednak bylo extrémně složitý a jednak ten šachový počítač byl vždycky jenom tak dobrej šachista jako byl ten programátor v nejlepším případě a většinou se ani tomu programátorovi nemuselo podařit všechnu tu svoji moudrost předat do toho algoritmu a tím že šachový velmistři naprogramovali tak ty počítače. Tyhle aplikace byly určený hlavně pro začátečníky. Možná potrápily mírně pokročilého hráče ale kdokoliv se tomu věnoval víc tak počítače pro ně nebyly soupeř. Nikdy se nestalo že by počítač porazil nějakýho šachového velmistra.

Kuba: [00:06:26] A potom přišlo IBM se svým počítačem debilů debilů proto že dřív tomu čemu dneska říkáme mašin learning tak se jmenovalo Deep Learning jako hluboký učení a oni vzali data z nějaké desítky tisíc jako záznamů přepsané jejich do textový podoby z mistrovství světa a z různých u velkých profi soutěží. Nahráli to do toho počítače a počítačům řekl. Ano teď jsem si zanalyzoval jak se hrajou šachy a když mi teďka budete dávat reálný situace tak já bych měl bejt schopen hrát jako ty příklady který jsem dostal a tím že ho krmili data MMA od velmistrů. Tak on vlastně měl úroveň toho velmistra a nebyla tam jediná podmínka typu pokud je věž tady nikdo mu do toho nezasahoval. A skutečně se poprvé stalo že tehdy Garyho Kasparova porazil počítač. To byla velká sláva a od tý doby máme všechny jak šachový aplikace tak i ostatní podobný hry jsou naprogramovaný strojovým učením. A pokud ten programátor někde neudělal chybu v tom základním vzorku kterým se ten program učil tak nepřichází v úvahu. Že by Garri Kasparov nebo nějaký jiný velmistr uhrál vítězství maximálně neudělá chybu tak že uhraje nějakou remízu ale že by počítač neporazil mistra ji nepředstavitelný.

David: [00:07:41] Takže zjednodušeně řečeno vlastně počítač zvládne jakoukoliv hru líp než sebelepší človek.

Kuba: [00:07:49] Dobře že se ptáš. Poslední překážkou v tomhle byla hra Go protože jsme měli míň dat a byla složitější. Tam je ještě o několik řádů víc možností toho větvení. Takže dlouho trvalo než jsme porazili nejlepší hráče i v Go. Dneska už padla.

David: [00:08:03] I tahle máme s říct jenom velmi stručně co to je ta hra Go. Pro ty kdo nevědí ne.

Kuba: [00:08:09] Nemohlo. Já jsem se to vždycky snažil pochopit a všichni říkat to je hrozně jednoduchý. To má hrozně snadný pravidla jenom se to těžce hraje a já jsem teda nedošel nikdy ani přes ty pravidla. Takže takže bohužel tam tě zklamu.

David: [00:08:20] Dobře tak po pojede to zní strašně krásně. Ale pojďme si něco říct i o nevýhodách umělé inteligence respektive strojového učení.

Kuba: [00:08:28] Nevím jestli tomu říkat nevýhody ale strojový učení má dvě takový výzvy. Ta první je že je velmi citlivý na to co mu dáš jako vzorek dat na vstupu. Pokud mu dáš špatnej nebo malej vzorek dat tak celý jeho způsob fungování celá ta inteligence může bejt za cenná protože on prostě nepracuje s ničím co ty mu neposkytne až na začátek. Jo a tam může vznikat milion a jeden problém. Buď mu dáš málo dat takže on není schopen se naučit všechny situace a na něco není schopen reagovat. Nebo mu dáš nějakým způsobem zkreslený data aniž by si toho třeba uvědomoval. Vyznáš předchozí díl Klam přeživšího to se může stát. A nebo naopak mu můžeš dát hromadu dat který jsou ale zbytečně duplicitní. Tzv. přetáčení toho algoritmu typickým. Můžeš vzít několik milionů záznamů z her z nižších soutěží. Takže tam máš víc dat než těch profesionálních nejvyšších soutěží. Ale ti to vlastně k ničemu. On nepotřebuje 10 milionů her na béčkový úrovni. Jemu je mnohem lepší 100 tisíc herna a áčko ví úrovni. A druhá výzva je že tím že do něj ten programátor nevynáší vůbec žádnou svojí svůj kód tak často nejsi schopný říct proč se ten program nějak rozhodl ať už se rozhodl dobře nebo špatně. A ty jako člověk chceš vidět proč to udělal tak ten programátor ti často není schopen vytáhnout ten důvod a vysvětlit ti to. Když máš nějakej procedurálně psaný program tou soustavou podmínek tím klasickým způsobem a řekneš mu Hele tady je chyba tak programátor se může podívat a říct Ano skutečně na řádku 569 jsem špatně napsal podmínku opraveno by publikováno. Už by to mělo fungovat. Ve chvíli kdy máš strojový učení a ono dělá něco špatně tak ty vlastně nevíš úplně proč. Někde byla chyba v tom základním vzorku ale dá ti neskutečně práce zjistit proč.

David: [00:10:24] No právě tady asi mohou pak vznikat ty řekněme obavy některých lidí z umělé inteligence a strojového učení. Kde vlastně ty neznáš ten motiv proč se něco nějak stalo a to může být ve výsledku docela děsivý.

Kuba: [00:10:38] Dokonce nejenom když dělá něco špatně. Ty na tohle můžeš narazit jako překážku i ve chvíli kdy ten program funguje výborně a není schopen říct proč. Typickej příklad. Někdy v 90. Kách v Americe začaly nemocnice narážet na to že když přijdeš na ten EAR příjem na něco jako naše pohotovost tak měli. A teď cituji z té jejich důvodové zprávy měly výrazně rozdílný úspěchy v diagnostice toho pacienta napříč nemocnicemi. To znamená někde byli dobrý a zjistili co mu je a léčili ho správně. Někdy byli špatný a léčili ho na něco jinýho což u krajních případů třeba když tam někdo přijde se začínající rakovinou a ty jeho chvilku léčíš na žaludeční vředy tak se mu může stát že mu uděláš rozdíl mezi ještě to šlo zachránit a už ne protože jsi ho půl roku léčil na něco špatnýho a obzvlášť v Americe. Tam nejde jenom o toho pacienta ale ještě navíc to otvírá ty nemocnice nějakým lie byly. Ty losují ze ty lidi je pak velmi s chutí žalují. Takže oni chtěli mít nějaký standardizovaný postup na který se můžou odvolávat aby byly vlastně kryté a zároveň aby i třeba začínající medik mohl být na příjmu kliká a nějaký věci o tom pacientovi a jemu by to vyplývalo podle pravděpodobnosti co by to mohlo bejt. Takže šly za ID tý firmami a poprosili jestli by jim nějaký takovejhle dotazník nevytvořili a oni se tam zrovna hodně zabývali tím strojovým učením a říkali Tohle by byla skvělá aplikace pro mašinérii a udělali to tak že nalili nějakých 50 tisíc už známých případů kdy věděli s čím ten člověk přišel co to nebylo a co to nakonec bylo a zkoumali.

Kuba: [00:12:17] Když pak chodili na ostrých datech ty skuteční pacienti jestli ten počítač má lepší nebo horší úspěšnost než ty lékaři a zjistili nejenom že má konzistentně naprosto výbornou úspěšnost v diagnostice toho co by tomu pacientovi mohlo bejt že nejenom že to pomáhá a že je lepší než ty nejhorší doktoři ale on byl lepší než ty nejlepší doktoři lidský. Ale co tam bylo zajímavý že ten program dokázal na 84 procent předvídat že budeš mít Parkinsona. To ty lékaře docela překvapilo protože do tý doby medicína o Parkinsonovu myslela že vzniká fakt náhodně. Existovaly pokusy kdy oni zkoušeli. Jestli to nemůže bejt genetický tak nevíme nebo nemyslíme si že v genetice je nějaký jako prekurzor pro něj zkoušeli jestli nějaký prostředí nějaká strava cokoliv jestli to může ovlivnit. A vlastně tehdy medicína říkala Parkinson je fakt náhodný. Jo on nic ho neovlivňuje a najednou tady byl počítač který dokáže na 84 procent říct že budeš mít Parkinsona což je statisticky naprosto mimo jakoukoliv argumentaci že by to mohla bejt náhoda. A teď ty medici byli nadšení a běželi za nima programátora a říkali Tak chlape vy jste objevili něco co my jako nevíme. To je perfektní. Tak nám řekněte čím to teda je ten Parkinson a ty programátoři krčil ramena a říkali My nevíme my vám to z toho nedokážeme vytáhnout. Od tý doby samozřejmě. Když už lékaři vědí že tam nějaká souvislost je tak už jsme dneska trošku blíž. Takže třeba jsme objevili že nějaký hnojiva můžou podporovat v dlouhodobém horizontu vznik Parkinsona. Ale vlastně pořád si nejsme úplně stoprocentně jistý. Zatímco ty algoritmy už jsme dneska vycvičili tak že ty můžeš toho Parkinsona rozpoznat na nějakých 94 95 procent jenom tím že o tom člověku zas dáš dostatek údajů do toho počítače ale furt třeba když.

Kuba: [00:14:09] Proč. Takže to je ten nedostatek o vysvětlení na straně toho algoritmu. A na druhý straně jsou ty algoritmy který nedokážou vysvětlit proč fungujou špatně. A jestli si pamatuješ tak před takovými osmi deseti lety byla v Americe velká vlna toho že každá firma která byla alespoň trošku veliká tak musela mít svoji divizi samořídící aut. Prakticky v Kalifornii jsou dodneška zvyklí že tam ty samořídící auty jezdí poměrně ve velkým množství a naprostá většina firem na to šla procedurálně jako že přišel programátor a řekl Tak pokud vidíš semafor a pokud je na něm červená tak před ním musí zastavit. Pokud na něm skočila zelená tak se můžeš rozjet což funguje spolehlivě bezchybně. Máš na to procesy ale to auto je zcela závislý na tom že se pohybuje v prostředí který rozpozná. Je tam standardizovaný semafor standardizovaná čára standardizovaný zatáčky a ten počítač musí přesně vědět kde je. Ale jakmile vjede do jakýkoliv nepřirozený situace tak on neví. Jo typicky něco mu přijde do cesty a on dokáže rozpoznat jestli je tam igelitový sáček a nebo pes zastaví za houkání error a musí se mu věnovat. A typicky když pojedeš po dálnici a tam bude přerušená čára tak ten procedurálně napsanej program na to zareaguje jako kdyby tam byla křižovatka. Jo jedeš a najednou tam ta čára není. Tak von to za měsíc ne a a myslí si že je na křižovatce. Jo a nedokáže na tyhlety nestandardní situace reagovat což je prakticky nepoužitelný vyjma nějakýho nejužšího jako centra.

David: [00:15:44] Nebo možná v nějakejch skladištích nebo.

Kuba: [00:15:46] Tak. Přesně tak. Uvnitř areálů kde můžeš nakreslit čáry a dávat ty můžeš garantovat že tam ta čára bude správně. Tak to funguje výborně ale na běžný použití v provozu to není protože vem si že každej den ti vlastně nastane nějaká nestandardní situace. A pak přišla společnost Nvidia velkej výrobce čipů a zároveň má velkou softwarovou divizi a řekla Pojďme to zkusit strojovým učením. Najala několik profesionálních řidičů a nechala ten program aby zkoumal jak ten řidič řídí. To auto mělo normálně nahoře jako všechny ostatní samořídící auta. Takovej ten dar se tomu říká je to něco mezi laserem a radarem takže si testovalo to prostředí ve kterým jezdilo ale řídil ho člověk a ten počítač se učil co v jaký situaci dělá. A měli několik řidičů a každej z nich najezdil několik set tisíc kilometrů. A po těch několika stech tisících kilometrech oni to nahráli všechno dohromady do toho do toho jednoho algoritmu. A on říkal Výborně chápu vim a už můžu řídit sám. A skutečně se ukázalo že v naprostý drtivé většině případů ten algoritmus je mnohem lepší. Jednak řídil plynule již než ty procedurální auta byl opravdu jako zrychloval i zpomaloval tak jako člověk že u těch procedurálně psaných aut to byl jako cukat ví. Ono sice nenarazil no ale nebylo to něco vedle čeho by si chtěl v tom provozu jezdit. Ty auta který se učili nebo který byl řízený díky tomu vašim Herningu tak jezdili plynule. Dávali si víc pozor. Bylo to opravdu jako člověk. Když něco vlítla do silnice tak on dokázal rozpoznat kdy má zastavit kdy nemusí. Když někde končila čára ale nebyla to křižovatka tak on věděl že to je jenom jako chyba značení dálnice pokračoval a bylo to opravdu dobrý.

Kuba: [00:17:31] Jediná nevýhoda byla že jednou za deset dvacet tisíc kilometrů prostě narazil do zdi zabočil. Bum. A teď manažeři běželi za nima. Programátora ma a říkali Kluci to není okay pojďte pojďte zajistit aby to auto naráželo do tý zdi. A ti programátoři říkali To my nemůžeme. Jo my nevíme. To je prostě strojový učení. A ve chvíli kdy my bysme tam dali nějakou tvrdou podmínku typu ale pokud je tam zeď tak tam ne naráží. Tak se může v nejhorším případě stát že celý zbytek toho strojového učení celej zbytek toho algoritmu se sesype protože on není připravený na to že funguje v kombinaci s procedurálním omezením a tak oni zkoumali proč to to auto dělá. A zjistili že na dálnici byl malý výmol a byl tak malej že ten Linhart co to auto má na střeše ho nezaznamenal ale lidský člověk ho viděl a jenom se mu vyhnul. A to auto nevědělo proč. Ve chvíli kdyby ten výmol zaznamenalo tak se naučí. Ano pokud je tam výmol tak se mu mám vyhnout ale tím že to auto nezaznamenalo tu malou díru tak se naučilo že je prostě OK. I když občas jedeš po dálnici tak ťuknout volantem doprava a protože to bylo hodný auto ho dělalo přesně tak jak se to naučil tak dokonce ECU Kalou víc než bylo potřeba a ty si jel po dálnici a auto řeklo Aha teď už jsem dlouho ne. Cuká volantem doprava jako to dělal ten řidič podle kterýho jsem se to učil a bum a hodil tě do svodidel.

David: [00:19:02] Takže ten systém fungoval naprosto perfektně a byl skvěle použitelný. Akorát se muselo zodpovědět zodpovědět otázku. Jestli to stojí za to že jednou za deset tisíc až 20 tisíc kilometrů tu vrazí do svodidel.

Kuba: [00:19:14] Což o to samozřejmě nestálo. A to takový auto by si nikdo nekoupil. Řešením bylo jednak z toho vyhodit z toho útočícího vzorku vyhodit tady ty situace kdy ten řidič se vyhýbal něčemu co to auto nevidí. A jednak ty nad strojový učení můžeš dát ještě jiný strojový učení který hlídá a na to je obecně machine learning velmi dobrej jako aplikace že hlídá anomálie že dokáže statisticky vidět co je normální a dokáže rozpoznat když se nějakej systém chová abnormálně. Takže oni nad to ještě nad řadili jiný algoritmus pro strojový učení a ten hlídal jestli příkaz k zatčení není náhodou abnormální. To znamená když jedeš po městě a je tam semafor tak on ví že OK auto chce zatáčet. Necham ho když jedeš po dálnici a najednou auto pošle příkaz. Chci zatočit prudce doprava a tak. Ta horní úroveň toho algoritmu to chytne a řekne Ne tohle je anomálie a nepovolí mu ten příkaz provést. Takže dneska Nvidia má jedno z nejpoužívanějších řešení na samořídící auta a je to spíš už dneska otázka právní a morální pro použití těch samořídící aut než technická.

David: [00:20:24] Jak to myslíš morální.

Kuba: [00:20:26] Dneska se tím skutečně v Americe zabývají. Není to jenom nějaká filozofická. Co kdyby otázka. A ve chvíli kdy to auto řídí samo tak může dojít k situacím kdy dojde k technický poruše. A ty když jedeš z kopce a blíží se k přechodu a odejdou ti brzdy tak ty nemáš moc čas přemýšlet. Lidskej mozek prostě nějak zareaguje někdo to strhne někdo přejede chodce ale není to racionální úvaha. Ty na to máš dvě vteřiny a to je moc málo na to aby se zapojil nějakej mozek kterej si vyhodnotí koho chci přejet nebo ne. Prostě nějak zareaguje a uvědomí si to až když seš z auta venku. Ale auto který má v sobě počítače řídí samo tak tyhle informace zpracovává mnohem rychleji. Takže tu situaci vyhodnotí a má spoustu času na to aby zareagovalo v nejhorším případě co se může stát. Tvoje samořídící auto tě veze jede z kopce odejdou mu brzdy a na přechodu někdo je. A teď to auto musí vědět co ty chceš aby udělalo. Někdo mu řekne no holt bohužel teda přece se nezabijí tak přejet chodce dál a někdo řekne No to ne s tím já žít nebudu. No prostě hoď to někam do stromu. A samozřejmě že to auto se pokusí tě zachránit. Ale vlastně ty mu musíš nastavit jestli má řešit situaci tak aby došlo k co nejmenšímu zranění pro všechny zúčastněný jako v průměru i když to znamená větší zranění pro tebe anebo jestli to má řešit jako co nejmenší zranění pro posádku toho auta. I když to znamená že rozmaru jež nějakýho chodce a každej člověk tohle bude mít nastavený jinak.

Kuba: [00:22:06] Ale můžeme se dostat do situace kdy ty si koupíš nový auto a tak jako když si nastavuje nové já i foun tak to auto ti řekne. Dobrý den já jsem vaše nové auto a teď vás provedu formulářem a chci abyste mi zodpověděl několik otázek. No a tam mimo jiné bude chcete abych jako spíš zabilo vás anebo spíš toho chodce. Jo my se tomu smějeme a přijde nám to přitažený za vlasy. Ale tohle je věc kterou oni už dneska musí řešit. A už na to existuje skutečně ve firmách morální oddělení a skutečně se sbírají data o tom jak to jak to kdo chce řešit. Pak se to ještě dělí dál což zatím to auto neumí rozpoznat. Ale je u spousty lidí rozdíl mezi tím když tam jde dospělej člověk když tam jde školka dětí ve chvíli kdy tam jede sám a kdy třeba v tom autě veze i svoje děti a teď ty si musí jako rozhodnout. A to auto může udělat cokoliv. Ale ty mu musíš na začátku říct a musíš mu to říct ty protože když to za tebe udělá prodejce tak ty jako zákazník přijdeš do prodejny a řekneš jak je nastavený to auto a pokud to bude fixně tak si ho půlka lidí nekoupí. Takže skutečně to asi bude na tobě aby si rozhodnul co v takových situacích pokud nepůjde odvrátit kolize tak jestli to má řešit vždycky v tvůj co největší prospěch anebo v celkově největší prospěch.

David: [00:23:21] To z někoho je docela dobrá otázka do nějakých psychotestů.

Kuba: [00:23:24] Přesně tak. On je to vlastně alternativa na takový ten známý a to dilema toho důlního vozíku že jo jak máš jede ti vozík a když nic neuděláš tak on ho přejede pět lidí anebo ho můžeš přehodit ručně na na koleji kde je jenom jeden člověk ale ale udělal s to ty že jo a pro spoustu lidí je je lepší. A říká se že zhruba 70 konzistentně lidí nechá ten vozík přejet těch pět ale oni za to nemohli. Jo to to ten vozík jel sám než aby si teda racionálně zachránil čtyři životy navíc tím že přijedeš tam jednoho ale musíš jít s tím že tuhý dívku přehodil ty nějaký průběžný výsledky těch testů sou. A je tam vidět že mezi lidma jsou poměrně velký rozdíly v tom jak třeba vnímají to. Jak vnímají hodnotu svojí a podobně. Že třeba těch lidí který řeknou vždycky chci přežít já těch moc není což mě překvapilo. Ale třeba spousta lidí říká ale pouze pokud jsem to jenom já. Jo pokud třeba vezu rodinu tak prostě je mi jedno co pokusím. Prostě může jít po přechodu školka ale prostě pokud vezu svoje děti tak vždycky zachraň posádku. Potom v tom formuláři byly i věci který to auto nemá šanci rozpoznat. Ale ale byly tam aby ty psychologové věděli co všechno do toho rozhodování vstupuje. A pro spoustu lidí byl rozdíl mezi tím jestli po tom přechodu D. Mladý člověk nebo starej člověk že tam byla byť je to tak strašlivý ale byla tam velká a velký rozdíl v ochotě přejet mladý lidi a rodinu s dětma a a když tam třeba jdou jdou jako starší lidi.

David: [00:25:01] Tak to je podobný například ty při pandemii v nemocnicích ne že se zachraňuje o mladší.

Kuba: [00:25:06] Ano to byla vlastně celá ta pandemie. Byla na začátku taky cvičení na tenhle důlní vozík to je něco podobnýho a bylo vidět že ve společnosti nepanuje konsenzus a tam s přesně věděl že to auto nemůže mít prostě před nad proklamovanou nějakou variantu protože pro půlku lidí by to bylo super a pro tu druhou by to bylo nepřijatelný. A pak to nese samozřejmě spoustu právních důsledků že když někoho přejede na přechodu samo viditelným autem tak ta pojišťovna řekne tak mě vyfoťte jak máte udělaný nastavení a řekne Vidíte tak tím pádem ale my vám neplníme protože prostě jste to měl nastavený špatně. Obecně to je zase ještě úplně jinej level když ti mašinérií auto způsobí oběti nehodu a někdo při tom zemře že ho třeba neviděl viz teď jak v Holandsku přejel ten Uber džíp toho cyklistu. Cyklista zemřel a řidič Uberu říkal Já za to nemůžu. To auto jelo na autopilota.

David: [00:26:00] No není to tak náhodou že i když máš to autonomní řízení tak musíš mít furt ruce na volantu a musí dávat pozor jako řidič.

Kuba: [00:26:08] Jasně tahle klauzule tam byla takže tam vcelku nebylo o čem. Oni mu říkali autonomní řízení. Pěkný ale ale v návodu je napsáno že za to furt zodpovídá ty takže tam jako nebylo co řešit. Na druhou stranu pokud se posuneme skutečně jako k autonomním autům tak oni budou dělat manévry u kterejch ty jako řidič naopak nebudeš smět do toho sahat. Jo tam se plánují takový věci jako že se třeba vyhodí semafory protože ty auta se předem domluví na dálku a budou vlastně projíždět v obou směrech mezi sebou. A tam naopak bude odpojený řízení protože to je běžná reakce jako člověk. A když vidí že se na tebe řídí auto devadesátkou zprava tak by bylo dupnout na brzdu. A to ty nesmíš. Takže ve chvíli kdy ty auta budou řídit skutečně autonomně tak zase musíš vyřešit kdo za to bude moct. Protože když auto psaný procedurálně někoho zabije tak ty přijít za programátorem a řekneš kámo tady ti to uteklo. Řádek 800 jsi zapomněl zabrzdit. Jo a ten programátor v rámci i tý firmy jako nese tu vinu. Ale když je to autonomní řízení tako toho řidiče který učil to auto řídit toho ne programátora toho ne řidiče toho auta taky ne. Jo a nemůžeš zase říct oukej. No tak umřel.

David: [00:27:17] Ale na druhou stranu mně přijde strašně krásná ta představa že každý auto nebo vozidlo který je na silnici tak spolu může komunikovat. A vlastně tahle myšlenka určitě není vůbec nová a mě to napadlo až teď kdy se nad tím zamýšlím. Takže vlastně každý auto by vidělo každý auto v uvozovkách a mohl by se jako už předvídat jako už ale třeba jako na kilometry. Nebo bys mohl sledovat že ten řidič tomu je špatně tak mu to jako přibrzdí a přibrzdí mu to jako bezpečně. A nebo že se fakt jako vyhnete že by to byl takovej hezky propojený takovej mraveniště vlastně.

Kuba: [00:27:49] Mraveniště určitě je tam teď trošku možná odbíhá my od toho mašin Herningu a tam tam jsou dvě fáze který musej nastat poměrně skokově. Nejhorší fáze bude když bude půl aut už autonomních a půlka ještě manuálních protože jakmile se ti na tý silnici bude pohybovat byť jenom jedna Felda která je prostě ručně řízená tak veškerý výhody těch autonomních aut a můžou si spolu povídat na 10km tak vlastně padají protože ty prostě potřebuješ aby jednoznačně jsi měl garantováno že nic co nemá standardizovaný protokol pro komunikaci tak se na tý silnici neobjeví nebo podobně jako jako to máš třeba ve vyšších letových hladinách u letadel. Prostě jo a předpokládám že ve chvíli kdy se tohle bude rozvíjet víc tak od nějakýho bodu tam bude velký tlak na to aby manuálně řízený auta zmizeli obecně a jedno jestli budou na diesely a jestli budou mít normu Euro 20. Ale ve chvíli kdy už bude čas přejít na na ty samo řiditelné auta tak tak bude velkej tlak na to aby ty jako člověk si do toho nemohl vůbec zasahovat.

David: [00:28:51] Hokej to jsme trošičku odběhl od tématu pojďme se vrátit. Jaké jsou další příklady využití strojového učení.

Kuba: [00:28:58] Kuba Prakticky ve všem co dneska děláme tak nějakým způsobem narážíme na ten algoritmus. Když platíš kartou tak vlastně všechny platby kartou u zdi nebo master kartu prochází nějakým algoritmem pro detekci zneužití tý karty. Oni mají tak obrovský stamiliony transakcí a tak obrovský miliony front transakcí který mají nahlášený o kterých vědí protože tam se to úplně nabízí ty na. Když algoritmus sto milióna ma transakcí řekneš tyhle jsou O.K. a nakrmí ho. Jedním dvěma deseti milionům transakcí u kterých víš že tyhle nejsou O.K.. A ve chvíli kdy tvoje karta zaplatí tak ten algoritmus automaticky rozhoduje o tom jestli ti tu kartu zablokuje nebo ne.

David: [00:29:43] Například když platím deset let kartou někde v Česku v Albertu a nebo v Lídlu a tak a najednou mi ta karta bliká někde v Ázerbájdžánu tak je to jako příklad Froda. A nebo jak. Jak to poznají.

Kuba: [00:29:56] Přesně tak oni i samozřejmě neřeknou co na tom hlídají a navíc oni to ani nevědí protože právě mašinérií. Jo a on ten program ti nevysvětluje proč. Ale ví že přesně. Může to bejt lokalita a může to bejt čas. Může to být vzdálenost. Jo on může vědět že tvoje karta fyzicky nemůže zaplatit. Ve třináct nula jedna v Praze a ve 13. 04 v Brně. To ti někdo někdo ukrad kartu. No pravidelně se mi to stávalo když jsem si koupil těsně před odletem na letišti vodu a pak těsně po příletu na letišti taky vodu. Tak ten algoritmus vyhodnotil že ten časový úsek byl tak krátký. Když se když se podařil let že to nemůže být a zablokoval mi vždycky kartu. Nevím jestli si sledoval přednášku kluků ze Zonky a oni říkali že do určitý míry tohle dokážou i manuálně kontrolovat a že mají sadu podmínek. To je to jsou procedurální podmínky. To není strojový učení. Ale říkali že třeba lidi který žádají o půjčku ve čtyři ráno tak vědí už že nesplácejí. Takže škrt nebo co. Vědí že lidi který do formuláře pro půjčku píšou svoje jméno velkej má tak je taky nesplácejí. Takže škrt. Jo a ten algoritmus pro strojový učení dělá přesně tohle ale dokáže u toho sledovat několik stovek parametrů naráz což ty jako lidský programátor v těch kombinacích nikdy nedokážeš rozpoznat. Můžou být dva parametry který jsou samy o sobě jako stem bylo v pořádku ale ve chvíli kdy se vyskytnou při tý platbě společně tak je to front a to ty už klasickým běžným procedurálním programováním. Součástí těch podmínek nedokážeš jako zakomponovat. Ten fraud algoritmus pak bude jenom tak chytrej jako ten programátor a ten programátor si tuhle souvislost neumí nemusí vůbec uvědomit.

David: [00:31:44] No a my jsme se ještě před natáčením bavili vlastně o využití strojového učení v marketingu. Jo kdy to funguje například při personalizaci obsahu co obsahu.

Kuba: [00:31:53] Jen to řekni reklam. Ach jo a v marketingu se tohle využívá hodně. Ve chvíli kdy jakýkoliv reklamní systém o tobě nasbírá dostatek informací tak je schopen tím mnohem líp cílit reklamu jako stroj než jako člověk.

David: [00:32:08] Což ale není za mě teda to není špatně.

Kuba: [00:32:12] Záleží jak na to koukáš. A z hlediska toho reklamního systému to není o tom že by si viděl víc reklamy. On ten reklamní prostor tam prostě je nějaká reklama se ti tam zobrazí. A jestliže seš ajťák a stavíš si počítač tak je užitečnější pro obě strany jak pro toho zadavatele tý reklamy tak vlastně i pro ten systém i pro tebe. Takže pro všechny tři strany když tam uvidíš reklamu na součástky do počítače a ne na kosmetiku. Jo v tomhle směru třeba nedává to to svatý tažení proti cookies až takovej smysl protože ta reklamní plocha nezmizí. Jo jenom už se mi začínají objevovat reklamy na halový jeřáby což je naprostej nesmysl. Mě to nezajímá a Facebook z toho nic nemá protože já to pro kliknu a ten zadavatelem zbytečně plácá jako čas.

David: [00:32:59] Naprostej souhlas.

Kuba: [00:33:00] A zároveň tady ten algoritmus stojí za velkou částí těch těch situací kdy někdo říká Facebook nás poslouchá a teď jsme se o tom bavili a teď mi na to vyběhla reklama. Ono to z větší části takhle není. V angličtině to funguje a skutečně v těch podmínkách je že tě messenger může odposlouchávat. A ty klíčová slova v tý angličtině oni chytají. V češtině je to zatím velkej problém a je mnohem častější že ten algoritmus to pochopil právě proto že zná nějaký kontext. Kredity si o sebe vůbec nevypráví. A na tý sociální síti ty nemusíš vyplňovat že seš ve vztahu a že máš dvě děti a že bydlíš v Praze protože ten kód je dneska nainstalovaný prakticky na každým e-shopu. Takže Facebook ví že si si na Alze před tím kupoval plínky takže ví přesně že máš dítě. Ví jak starý máš dítě protože ví že lidi který kupujou velikost 5 tak mají dítě prostě okolo dvou let a podobně. A ty když potom jako inzerent přijdeš a chceš zacílit lidi který mají dítě a hodíš na ně. Já nevím a nějaký hračky pro děti od dvou let a řekneš Facebooku chci rodiče který mají děti 2 až 3 roky. Tak i když ten rodič nemá vůbec nic vyplněného tak ta reklama mu vyběhne. Ale není to proto že by tě odposlouchávali. Jak jsi se s kamarádem bavil o tom že máš tříletý dítě. Ale je to proto že ví přesně co si doteďka kupoval na všech e-shopech okolo který ty data Facebooku posílají. A Facebook si to k tobě jenom uložil a ví o tobě úplně úplně všechno a nemusí k tomu potřebovat vůbec žádný důkaz protože seš přihlášený do svýho účtu a to. Ale zvládne zpracovávat kvalitně jenom strojový učení. Tohle ty jako programátor nebo zadavatel jako člověk nejseš schopen nikdy ty podmínky vymyslet tak správně jako to zvládne jako to za tebe zvládne ten reklamní systém právě díky tomu machine learning.

David: [00:34:45] Takže já bych to shrnul. I když patrně většina z nás nemá rád reklamy tak je pořád lepší. Za mě teda mít personal zvaný reklamy který mi nabízejí to co mě může zajímat.

Kuba: [00:34:54] O zcela určitě. A nevyužívá se to jenom v těch věcech který jsou ne zcela oblíbený jako je reklama. Ale když vyhledává na Googlu tak tam se to uplatňuje taky. Typický příjdeš do Googlu za. Dáš tam lednice a Google ví že si se před tím díval na stránku o opravách lednic o záručním servisu na svojí lednici a podobně. A teď hledáš lednice tak ví že jsi to vzdal nenecháš jí opravit a kupuješ si novou. Takže ti vyběhnou personalizované reklamy na ten produkt na ledničky ve chvíli kdy si turista a hledala si hluboká a trosky. Já nevím jaký jsou zámky protože nejsem turista a teď hledáš lednice. Tak Google ti nebude ukazovat americký ledničky ale ukáže ti Lednicko valtický areál a je nesmírně důležitý aby tady ten kontext Google měl protože by ti jinak vyjížděli úplný nesmysly. A tady těch více významových výrazů aniž bysme si to uvědomovali je spousta. A Google říká že vlastně každej uživatel dostává na stejný výraz který hledá úplně jinou sadu výsledků. To co ti vyjíždí je naprosto personalizované a je to strašně důležitý protože jinak by to ty lidi nepoužívaly. Představ si jesli chceš koupit novou ledničku a dáš tam lednice a on tam ti vjíždí nějakej zámek s bludištěm. Jo to to je nesmysl a pravděpodobně půjdeš na seznam. A dokonce už dneska chápe ten kontext tak dobře že říká že u šedesáti procent výrazu už ty lidi nemusí ani přecházet na stránku. To jsou takový ty odpovědi hned jako ty úryvky ty úryvky. Další věc kde se tohle využívá je rozpoznávání řeči. Je to důležitý jak pro tu reklamu tak i pro to ovládání protože by bylo super kdyby si prostě mohl vzít telefon nadiktovat zprávu a textově ji odeslat což dneska do určité míry funguje.

Kuba: [00:36:39] Ale není to nic moc jsme v začátcích. Angličtina je na tohle výborná. Máš desítky stovky milionů uživatelů který do toho mluví anglicky a ještě navíc je gramaticky dobrá čeština. Je na tohle noční můra. Nevím jestli někdy viděl jak vypadá že když ho vytáhne do počítače ne ho nemá stejnej. To je vlastně šum. Jo má stejnej podpis jako když vezmeš obal a začneš před tím mikrofonem spustit. Pak jsou tam takový věci který se dějou že když budeš programovat to rozpoznávání řeči procedurálně a řekneš mu pokud slyšíš f tak je to prostě písmeno f tak se ti pak stanou věci že někdo přijde a řekne lev jo a a von napíše Ne slyším bylo slyším a já slyším UFO. A samozřejmě to gramaticky není správně a tohle je velmi obtížný obsáhnout procedurálně protože navíc každej říkáme v trošku jinak každej to písmenko vyslovujeme že jo. To pražáci místo e říkají á. A když to že ti mimochodem stává když máš takovou tu klávesnici jak do ní diktuje tak lidem z Prahy to konzistentně v některých slovech píše á místo céčka protože už jsou tak blízko a tohle je věc se kterou si neporadí již procedurálně. To musí dělat algoritmus ve strojovém učení kterej si poslechl milion lidí a jejich desítky milionů vět dohromady a pochopil z toho co to je. U toho rozpoznávání řeči. Je potřeba ještě zmínit že se pořád bavíme o strojovým učení který díky statistice dokáže pochopit to co říkáš. Dokáže pochopit kde je v KDE jev dokáže možná časem pochopit správně čárky ale už to třeba nedokáže pochopit shodu přísudku s podmětem protože to nemá kontext.

Kuba: [00:38:23] No ono tu jednu konkrétní větu dokáže analyzovat proti desítkám stovkám milionů ostatních vět tak že ji napíše správně ale jsou tam takový věci a jsou zase jazykovědci počítačoví na to přímo vymysleli nějaký cvičení. Typicky polští radní a teď to. Nechci se pouštět do politiky ale ten příklad je hezkej. Polští radní odmítli aktivistka demonstraci protože se báli násilí. A teď když to napíšeš do Googlu tak Gogol se podívá na poslední podnět v tý větě to jsou aktivistky takže napíše bály. No ale přitom kdyby chápal kontext tak by věděl že ti radní se báli takže tam je měkký a je to kontraproduktivní protože jestli si všiml tak od tý doby co todle Google začal dělat že hlídá nebo se snaží v češtině hlídat shodu přísudku s podmětem tak lidi který to používají tak píšou mnohem hůř. Protože když ti přece Google podtrhne jako sloveso tak je to Google že jo. Tak ty ty to jako opravu akceptuje protože si nejseš jistej ale on to dělá konzistentně špatně. A tohle vyřeší. Jenom ta umělá inteligence. Ta obecná umělá inteligence která pochopí ten kontext a bude ale k tomu potřebuje i politický kontext protože potřebuje vědět jestli se bojí radní nebo ty aktivistky. No a a tohle není něco co by mašinerii zvládl. To už je mimo hranice strojového učení. Tohle by musel být opravdu počítač který už si s tebou povídá jako člověk s člověkem. A to je ta varianta kterou ještě dekády mít nebudeme.

David: [00:39:54] Mě v tomhle ohledu ještě fascinuje ta funkce rozpoznávání obrazu. Jo kdy strojový učení jde využít i k tomuhle.

Kuba: [00:40:01] Ano a to jak v dobrým tak ve špatným v tom dobrým slova smyslu. Asi pozoroval že ty začneš něco kreslit a Google to za tebe dokreslí protože to chápe a dělá takový ty snový obrázky. A docela je to hezký a má to jako kreativní využití. Ale samozřejmě cokoliv je technicky dostatečně vyvinutý na to aby to šlo zneužít tak se to zneužije. A velký úskalí strojového učení a jeho rozpoznávání obrazu je v tom že ty dokážeš dneska z pár fotek nebo z krátkého videa naučit algoritmus nějakou tvář ze všech stran. A pak řekneš a teď tu tvář přileb na někoho jinýho a dej mu do pusy nějaký slova. Říká se tomu deep fejk videa a už to není jenom teoretický riziko. Už jsme opravdu v době kdy hrozí nějaký až politický nepokoje. Díky tomuhle. Samozřejmě. Na začátku se tohle začalo využívat jenom jako presink. Jenom jakože podívejte mám u sebe v kanclu Toma Cruise jo. Potom lidi pochopili že můžou vyrobit dospělý videa s jakoukoliv oblíbenou herečkou která je nikdy netočila. Takže dneska jsou na internetu nahý videa. S kýmkoliv si vzpomeneš což hned na začátku než se informace o těch dívčích videích rozšířily tak pro ty herečky bylo poměrně a obtížný vysvětlovat když ta technologie je neznámá ale ty videa už existujou a oni prej opravdu důvěryhodně to nepoznáš.

Kuba: [00:41:36] A dneska to má přesah až do politiky protože třeba v Gabonu jestli si nesledoval zřejmě zemřel prezident a oni věděli že na jeho osobnost byla navázaná z velký části politická stabilita tý země. A najednou se lidi začali ptát jak to že už jsme tři čtyři pět měsíců neviděli vystoupit svýho prezidenta a oni aby dokázali že žije. Tak vydali video který bylo podezřelý protože jedna velká nevýhoda když děláš tý fejk video né z videa ale z fotek tak je že ty máš většinou fotky jenom s otevřenýma očima a když vzniká deep Fejk video z fotek tak on mrká. Jo ten algoritmus nemá informaci o tom jak vypadá ta tvář když mrkne a ten prezident měl několikaminutový proslov a mrknul u toho. A jinak bys to nepoznal. Kdyby neměl celou dobu otevřený oči tak to vypadalo velmi dobře i ten hlas i to video k tomu bylo velmi přesvědčivý. A teď vlastně vznikla otázka byl. Byl to deep fejk nebo to byl opravdu jejich prezident a neví se. Jo dodneška se neví jestli ten prezident žije nebo ne. Takže to má skutečný přesahy do politiky. Představ si co by se dneska stalo kdyby existoval třeba kvalitní džíp Fejk s ukrajinským a politika MA který by říkali něco nějakou kapitulaci nebo něco podobný.

David: [00:42:54] No Baidu wej. To jako není kdyby existovalo. Já jsem před třemi dny přesně todle četl že někde probíhalo video kde ze vojenský vyzývá ke kapitulaci ukrajinskou armádu a bylo to okamžitě označeno jako fejk. Takže to už probíhá.

Kuba: [00:43:09] Vidíš takže na tohle pozor. A dneska skutečně tak jak jsme si zvykli že nesmíme věřit ničemu co vidíme na fotce protože foto šok. Na to už jsou dneska většinou lidi zvyklí. Jo vidíš něco co je hodně podezřelý a říká jestli jim je to fotka. Někdo to mohl foto šoupnout. Ale dneska už jsme v době kdy nemůžeš věřit ničemu ani když to vidíš na videu odvysílaných v televizi a stejně tam musíš mít ten majáček a říci tam je to opravdu Obama opravdu Zeman. Je to opravdu prezident Gabonu.

David: [00:43:40] Opravdu spolu dělají to co vidíme že spolu dělají.

Kuba: [00:43:42] Ano opravdu tady Obama dělá todle to fer. Lopez ne já je to džíp Fejk jedno ze zajímavých využití který už kdysi dávno zkoušela IBM a nedopadlo to slavně a nepoučili se lidí a pak to pár let po nich zkoušel. Microsoft tak bylo že se snaží navázat umělou inteligenci respektive taky její machine learning novou část a na komunikaci s lidma a vyrábět takzvaný Čech boty či boty je něco co si s tebou píše na místo člověka moc hezky vyřešený to má třeba dneska FedEx ten má místo operátora na četu ty se připojí až k nějakýmu robotovi. On ti řekne Ahoj já jsem robot a nebo jak se jmenuje. Co pro tebe dneska můžu udělat. A ty když nepíšeš nesmysly a píšeš srozumitelně tak ona ti dokáže odbavit tak. I ty nejběžnější věci jako kde je můj balíček. Potřeboval bych změnit čas doručení balíčku a on chci on line zaplatit poštovní něco podobnýho a ona tě opravdu odbaví. Nerad to říkám ale kolikrát líp než když ten účet absolvuje do Indie. Tady ty základní věci už umí komunikovat výborně a kdyby neřekla na začátku že je robot tak bych to třeba nepoznal. A Microsoft si řekl Pojďme tohle dotáhnout do dokonalosti. Vyrobíme robota kterej si pro skenuje celý Twitter. Bavíme se o období nějakých osm let zpátky to znamená tehdy Twitter nebyl tam kde je dneska a dneska je to taková jako prodloužená ruka těch Facebook komentářů a je to podobná. Umí to být podobná žumpa jako na Facebooku ale tehdy před těma osmi lety to byla bašta inteligence a a a správných názorů. Takže Microsoft si řekl poskytujeme celou Twitter sféru necháme odtamtud nasát toho robota a informace a on si on se to naučí jak lidi komunikují a pak mu uděláme Twitter účet.

Kuba: [00:45:28] Jmenoval se tak a lidi mu budou psát a on bude odpovídat takhle. A tam to naráží na tu slabinu kterou jsme zmiňovali na začátku že machine learning je velmi citlivý na vstupní data. A úplně to nejhorší co mu můžeš dát že ho necháš interagovat s nějakým lidským a jako výstup gama který nejsou standardizovaný typicky názory na cokoliv na Twitteru a tomu robotovi trvalo 16 hodin než se z něho stal nacista a macho a všechno možný. Nejdřív začal mít podle mě problém se ženami a že začal říkat něco o plotnu kách a volebních právech. Potom začal mít problém s černochy sama. A potom začal mít problém se židem. Má dokonce dneska byt dneska by ho vypli už. Že ho hned v začátku a oni nejdřív ty ženy to se omluvili že to opravi její černochy to se omluvili že to opravi. A pak když začal mluvit o nějakých jako plynech a tak tak to už to už jako zařízli že vtipy na židy to už nešlo takže ho stáhli s tím že ho ještě potřebujou drobně poupravit. Dneska by nepřežil ani těch 16 hodin. Ale vidíme že nejsme ještě schopní vyrobit bezpečně umělou inteligenci tak aby aby mohla být autonomní i když komunikuje s otevřeným světem. Protože ta inteligence umělá je jenom tak dobrá jako je ta inteligence reálná okolo něho. A bohužel teda ten Twitter se ukázal jako špatná věc a netrvalo to ani den a byl z něho nácek. A mimochodem na něco podobného narazil Google v roce dva tisíce patnáct když vyráběl svůj algoritmus kterej měl zajišťovat rozpoznávání věcí z obrázku. To je pro Google naprosto zásadní protože do tý doby on rozuměl jenom tomu cos napsal na webu jako text.

Kuba: [00:47:09] Ale pokud se tam někde objevil obrázek tak on byl bezradný a s nástupem sítí jako OS nečet Instagram kde lidi komunikoval výhradně obrázkem a tak Google vlastně vůbec nevěděl co na nich je a potřeboval to chápat. Takže se rozhodli že udělají machine learning novej algoritmus a nalili mu tam desítky milionů fotek o kterých už věděli co jsou co jsou ale zřejmě v nějakým špatným poměru. Byli tam lidi byli tam zvířata a byli tam. Byla tam příroda a on se to naučil. A bohužel teda nefungoval správně protože když mu potom dali fotku ulice v New Yorku tak on bílý lidi označoval správně jako lidi a u afroameričanů konzistentně tak choval gorily. A to samozřejmě už tehdy v tom roce 2 15 byl jako pozdvižení to nešlo a oni se snažili tři roky to opravit. A právě protože to je algoritmus strojový učiní tak ono není. Nesnáší úplně dobře když mu do toho zasahuje nějak manuálně což je ty ve chvíli kdy oni mu řekli že pokud si nejsem jistej tak to spíš označí jako Afroameričana tak to přetekla do opačného problému že on potom měl skutečně obrázky goril atakoval tam Afroameričany což není o mnoho lepší. Takže se po třech letech v roce dva tisíce osmnáct rozhodli že všechen ten algoritmus všechen ten vzorek těch fotek smažou a hrajou tam tou dobou už stovky milionů dat. A na těch už je to naučil správně. Takže je citlivý na množství i kvalitu těch dat a může to vést k problémům který by mohla běžná technologická populace chápat velmi velmi špatně velmi citlivě.

David: [00:48:50] No když jsme si řekli teda ty různý fake mapy a chyby tak upřímně řečeno mě trošku děsí to že se umělá inteligence a strojový učení používá hojně i v armádě a ve zbraních.

Kuba: [00:49:01] Ano to byla samozřejmě jenom otázka času než umělá inteligence upoutá armádu protože ona řeší hned několik problémů který moderní armády mají. Jeden z nich je že cena lidského života alespoň v západním okruhu roste a ty musíš každou ztrátu každýho toho jednoho vojáka těžce politicky společensky vysvětlovat. A snaží se samozřejmě aby si musel těch dopisů vážená rodino i nám to líto posílat co nejmíň. Takže taková představa robotického vojáka je velmi lákavá. A druhá věc je že armády aniž by se tím moc chlubily tak mají gigantický ztráty způsobený tím čemu hráči počítačových her říkají friendly fair že se zastřelí ty vojáci navzájem. Britská armáda třeba dávala zprávu že při invazi do Iráku a měli v tý poušti velmi vyhrocené situace kdy ta viditelnost byla několik metrů třeba ani ne. A teď ty víš že tam někde ten nepřítel je že po tobě bude chtít střílet a jdeš. A najednou se proti tobě v tý pouštní zvířecí bouři objeví obrys postavy s se zbraní. Tak máš nervy na pochodu napálí to tam a zjistíš že z nějakou nešťastnou náhodou se ti tam přimotal spolubojovník a říkali že vlastně 24 procent což je skoro čtvrtina 24 procent všech ztrát britský armády v Iráku byla friendly fair. No a to nechceš a strojový učení by dokázalo tohle velmi dobře z. Protože by dokázalo nebo obecně robotický voják by dokázal tohle zvrátit protože by dokázal líp rozpoznat už jenom ten obrys. Věděl by že tohle je obrys britského vojáka v helmě a není to už nějakej mudžahedíni a případně ten robotický voják dokáže rozpoznávat i jinak než jenom vizuálně. Měl by víc senzorů což lidský člověk nemá má lepší přehled o bojišti a podobně. Takže samozřejmě si s Mašín learning dem hodně hrajou. A právě ve spojení s tím jak velmi špatnou cestou se může Mašín Hernych vydat viz robot Tai který po 16 ti hodinách začal hajlovat tak představa že to montuje už dneska do kulometů do tanků do dronů tak jako nechceš mít nacistický tank ve svý armádě.

David: [00:51:16] Tak koneckonců my o tomhle už máme dokument že jo. Ta filmová série se jmenuje Terminátor takže by mělo přesně jak to dopadne.

Kuba: [00:51:23] Ano říká si Tohle je přece velká červená čára. Copak ty lidi nikdy neviděli Terminátora. Jeden příklad kde se to skutečně už používá to není jenom jako nějaký v budoucnu budeme mít. Jestli jsi zaregistroval tak poměrně nedávno řádově půl roku rok. Ano v Íránu provedli Izraelci atentát na jaderného vědce a provedli ho tak že na dodávce byl odstavený opuštěný kulomet který měl. Autonomní rozhodování oni ho tam postavili a on měl naprogramovaný který ho toho vědce konkrétně má zasáhnout a on jel v koloně aut v pohyblivým autě. Oni na něj vypálili myslím devět ran ale velmi přesně ho zneškodnili což je na jednu stranu. Když on myslíš ty všechny ostatní společensko morální otázky tak tohle je střelecky velmi obtížná disciplína. To byl pohyblivý cíl. Byla to střelba do auta což když sis někdy pozoroval co udělá čelní sklo se střelou tak to je velmi velmi obtížný. A vedle něho na sedadle spolujezdce jela jeho manželka a té se nic nestalo. Jo to znamená na a na tu vzdálenost na kterou stříleli to byly stovky metrů. Tak jako když odmyslím všechno ostatní tak ta technologie ze střeleckého hlediska fungovala velmi dobře. To jako se střelecky určitě povedlo. Na druhou stranu kulomet který se rozhoduje sám koho zastřelí to je podle mě strašidelný. To je podle mě věc za kterou by lidstvo jako nemělo nemělo chodit. Prostě autonomní tanky drony a kulomety ne. Ještě ten kulomet se ti alespoň nehýbe z místa ale když to na montuje do tanku a do dronů dneska. Protože tím kolik těch dronů máš tak vlastně nemůžeš už dneska ke každýmu dát operátora. Takže ty ho před programuje že. Řekneš mu a až uvidíš něco co vypadá jako cíl tak to bombarduje. A ty si nemůžeš bejt nikdy jistý že ten dron není připojené ještě k něčemu k nějakýmu špatnému vzorku dat a že třeba není zblbnutí. Jo když by si správně dokázal jako nepřítel vyhodnotit slabiny toho algoritmu tak by si byl v nejhorším případě schopen přesvědčit ten dron že má třeba bombardovat vlastní jednotky.

David: [00:53:33] No přesně to jako by jsme si ukázali několik případů kdy vlastně netušíme proč se ten algoritmus rozhodnul jak se rozhodnul. Takže něco takovýho dát do zbraní mi přijde jako úplný nesmysl.

Kuba: [00:53:44] To je taková ta válečná logika že i ty i kdyby si nechtěl tohle dělat tak ty víš že pokud to neudělá štít tak to udělá tvůj nepřítel. Takže to samozřejmě uděláš a uděláš toho víc aby si jí měl těch robotických vojáků víc než tvůj nepřítel a vidí že dneska všechny ty různý smlouvy který v sedmdesátých osmdesátých letech vrcholy o tom že si zastupujete počet různých typů raket tak se dneska vypovídají že to není rozhodně prostředí pro to že byste se domluvili že ve svejch armádách budete mít maximálně deset robotických tanků. To neexistuje. Takže teď se budou rozjíždět závody ve zbrojení protože ty lidi fyzicky nejsou aby za tebe bojovali a když už jsou tak jsou velmi vzácní. Takže není otázka jestli ale kdy uvidíme robotickou armádu. Na druhou stranu abysme to trošku odlehčili abychom jenom na teplý snili umělou inteligenci ve zbraních a ne křivdil jim tak se to využívá ještě v jednom segmentu kterej se teď ukázal velmi velmi důležitej. V době kdy tuhle točíme tak zhruba dva týdny probíhá ruská invaze na Ukrajinu a k překvapení všech tam dochází k velkým ruským ztrátám techniky. A než přišla umělá inteligence tak boj pěchoty proti technice probíhal maximálně tak že jsi měl na zádech nějaký RPG béčko což byla vlastně raketa s výbušninou. Ale byla hloupá tys to zmáčkl a ona prostě vyletěla dopředu takže bylo velmi velmi obtížný s ní nějakým způsobem mířit. To za á za druhý. Efektivně ses dokázal trefit na maximálně 300 hodně špičkový voják 400 metrů a ještě navíc si z většiny zasáhl tu techniku z toho úhlu ze kterýho si střílel což bylo zpředu kde je velmi dobře pancéřovaná takže úspěšnost byla mizivá.

Kuba: [00:55:26] Jo jednak ti toho vojáka pravděpodobně zastřelili jednak i když se trefil což se většinou netrefil tak nebyla garance že že tu jednotku zneškodnil. A dneska dneska se montuje do těch raket umělá inteligence která je navádí a která má v sobě uložený informace o všech typech vlastně těch jednotek a ví a dokáže rozhodnout kde je nejslabší místo. To znamená že ty jednak funguje třeba dva až tři kilometry což je věc kde tě ten tank ani nevidí a může to za druhý obsluhovat kdokoliv. Já ty na to namíří už ono ti to ze zelená že jako v pohodě ty to než a můžeš jít. A hlavně ta raketa je navádí na to znamená můžeš vystřelit a již u toho cuká než tak. Ona se tam dostane a ještě navíc tím že zná ty slabý místa tak vlastně jak se blíží k tomu tanku tak pochopí k jakému typu cíle letí. Ví že tady ten nejslabší místo je třeba v poklopu takže těsně před tím cílem vyletí nahoru a narazí do toho tanku z toho poklopu. To znamená ty vlastně zbraní která stojí několik set tisíc korun což je z armádního hlediska nic tak můžeš velmi jednoduše ničit techniku která stojí desítky a stovky milionů korun. A ukázalo se že právě v konfliktech tohohle typu kdy do měst i vjíždí těžká technika a ty můžeš mít v každým okně takovejhle typ SB. Tak to je pro tu útočící armádu naprostá noční můra. A vlastně to srovnává tu nevýhodu. Ano oni mají hodně tanků a my máme hodně tady těch zbraní na rameno. A vlastně si můžeš bejt jistej že ta armáda bude mít velmi velmi těžké chvíle při tom dobývání.

David: [00:57:04] No a závěrem to trošku vrátím zpátky na začátek kdy ty jsi mluvil vlastně o té obecné umělé inteligenci. To jsme schopný trošku predikovat a říci kdy vlastně budeme jako lidstvo schopní vytvořit umělou inteligenci která bude myslet jako my.

Kuba: [00:57:20] Očekává se že to bude několik desítek let a musí nejdřív dojít k posunů na úrovni kvantových počítačů. To co dneska máme tak to jsou digitální počítače. Ano ne nuly jedničky a my potřebujeme přesun ke kvantovým strojům což by bylo zajímavý téma na další podcast.

David: [00:57:38] No abych si jenom stručně říct stručně ne. Dobře dobře. Kuba tady zakroutil mocně hlavou. No dobrá tak my si tu píšeme jako jedno z dalších témat a teď už poděkujeme za pozornost. Myslím si že to bylo hodně zajímavý téma a budeme se na vás těšit u dalšího dílu. Potká tu zjisti víc já jsem David.

Kuba: [00:57:56] Já jsem Kuba.

David: [00:57:57] Ahoj.

Komentáře