Pro přehrání dalších podcastů se prosím registrujte.

Aplikace je ZDARMA. Váš email potřebujeme pouze k tomu, abychom vám mohli vybírat podcasty přesně na míru. Budete moci odebírat podcasty, hledat osobnosti a témata napříč podcasty, aby vám neunikl žádný zajímavý rozhovor.

Vyzkoušejte vaše osobní rádio. Děkujeme, Team Youradio Talk.

Obrázek epizody Speciál: Lidé, kteří měli pravdu o AI a my, kteří jsme jim nevěřili 🤯

Speciál: Lidé, kteří měli pravdu o AI a my, kteří jsme jim nevěřili 🤯

Obrázek epizody Speciál: Lidé, kteří měli pravdu o AI a my, kteří jsme jim nevěřili 🤯

Poslechněte si podcast

Dnes

10 min

O epizodě podcastu

Tento týden jsem si přečetl dva texty, po kterých jsem se musel jít projít. To tedy dělám celkem běžně, ale tentokrát jsem šel, i když venku pálilo sluníčko a všichni ostatní sousedé v Řecku spí a čerpají síly na večer. První od týmu AI Futures Project , který se zabývá předpovídáním, kdy přestane člověk programovat. Druhý od novináře Dylana Matthewse , který se po jedenácti letech omlouvá lidem, jež tehdy odepsal jako spekulanty. Já je tu trochu nemilosrdně shrnu. Kdo se bojí budoucnosti už teď, možná je lepší volbou tenhle e-mail smazat.

Konference, na které stáli za řečnickým pultem podivíni

V srpnu 2015 zorganizovali Efektivní altruisté konferenci EA Global. Mezi řečníky byli třeba Nick Bostrom (autor Superintelligence ), Stuart Russell (legenda počítačové vědy), Nate Soares (dnes autor knihy If Anyone Builds It Everyone Dies ) a tehdy ještě docela rozumný Elon Musk. Téma: jak nás všechny smete umělá inteligence.

Mezi účastníky byl i Dylan Matthews, novinář Voxu. Mluvil tam s mladým inženýrem z Googlu, který se jmenoval Chris Olah. S doktorandkou filozofie, která se jmenovala Amanda Askell nebo s programátorem PayPalu, který se jmenoval Buck Shlegeris.

Dylan z konference odjel s pocitem, že nadějné hnutí, které mohlo zachraňovat lidi v Africe a kuřata v klecích, zničí samo sebe spekulativní obavou z technologie, která ještě ani neexistuje. Napsal pak poměrně tvrdý článek do Voxu , v němž tu obavu označil za důkaz, že hnutí utíká od reálných problémů.

Bylo to v srpnu 2015. Transformer ještě nebyl vynalezen (jen připomenu, že na tomto přelomovém objevu se podílel právě náš Tomáš Mikolov ) a OpenAI ještě nebyla založena. Ve světě nebylo nic, co by připomínalo dnešní ChatGPT.

O jedenáct let poté Dylan píše: měl jsem se dívat pozorněji.

Chris Olah mezitím stál u naší současnosti a pojmenoval celý obor mechanistic interpretability a spoluzaložil firmu Anthropic . Amanda Askell pracuje v té samé firmě a je přímo zodpovědná za osobnost modelu Claude. Buck Shlegeris vede Redwood Research , jednu z nejvážnějších technických laboratoří pro bezpečnost AI mimo zdi velkých firem.

Tři lidé, ke kterým tehdy Dylan chodil jako k podivínům, drží dnes v rukou kus globální technologické budoucnosti.

Netrefili to

A tady to začíná být zábavné. Tedy zábavné v tom “černém slova smyslu”.

Dylan ve svém článku zmiňuje Leopolda Aschenbrennera , bývalého výzkumníka OpenAI, který v roce 2024 napsal eseje pod názvem Situational Awareness . V nich predikoval, že do roku 2026 půjde do AI infrastruktury 520 miliard dolarů. Tehdy si všichni klepali na čelo. Reálně se investice odhadují na 650 až 700 miliard.

Zase jsme to podstřelili. Reálná čísla jsou divočejší než ta divoká predikce.

Stejně tak Ajeya Cotra a Peter Wildeford predikovali na konci roku 2024 vývoj AI v roce 2025. Dylan píše: byli velmi přesní - a kde se mýlili, mýlili se v tom, že podcenili obraty AI firem. Tedy nikoli v tom, že by AI rostla pomaleji, ale že roste rychleji, než si oni sami troufli odhadnout.

Anthropic? Tržby na úrovni 10 miliard dolarů ročně . Roste na desetinásobek každý rok. Claude Code, nástroj pro programování, dosáhl 2,5 miliardy dolarů ročního obratu za devět měsíců od spuštění . Technologický produkt, kterému není ani rok.

Baví vás Zprávy z lesa? Můžete mi koupit kafe nebo si čtení předplatit 💚.

Získáte komplet archiv, speciální čísla a další bonusy.

🎧 Zprávy z lesa jako podcast na Spotify nebo Applu 🎧

Revize do roku 2028

Tým AI Futures projektu (Daniel Kokotajlo, Eli Lifland, Brendan Halstead) zveřejnil čtvrtletní revizi svých predikcí . Daniel Kokotajlo je spoluautor proslulého scénáře AI 2027. Eli Lifland je profesionální forecaster. Tihle lidé tipují budoucnost odborně, né podle křišťálové koule.

Co revidovali?

Posunuli predikci momentu, kterému říkají Automated Coder – AC. Bod, ve kterém by AGI firma raději dala výpověď všem svým softwarovým inženýrům, než aby přestala používat AI pro programování.

Přečtěte si tu definici znovu. Pomalu.

Není to o tom, že AI bude lepší než programátoři. Je to o tom, že firmy radši propustí všechny své lidi, než aby AI vrátily. Z těch dvou možností si vyberou tu druhou.

Daniel posunul medián svých odhadů z konce roku 2029 na polovinu roku 2028 . Eli posunul ze začátku roku 2032 na polovinu roku 2030 .

Důvody? Nové modely jsou lepší, než si tým dokázal představit. Doba, za kterou se zdvojnásobí schopnosti AI v programování, se zkrátila z 5,5 měsíce na čtyři měsíce. METR (organizace, která tohle měří) zveřejnila novou metodologii a křivka jde nahoru rychleji, než se předpokládalo. Daniel přitom posunul požadavek na 80% spolehlivost Ze tří let na jeden rok – tedy si myslí, že stačí, aby AI zvládla v pohodě jednoroční úkoly, a budou propouštět.

Lidé, kteří pracují s umělou inteligencí uvnitř AI firem , nám říkají, že to bude dřív, než si myslíme my. V soukromí i veřejně své predikce utvrzují, místo aby je revidovali zpět.

To znamená, že lidé, kteří k technologiím sedí nejblíže, kteří vědí, co se chystá v laboratořích, na které se my smíme dívat až po šesti měsících jako na přefiltrovaný marketingový materiál – těm připadá tempo, které posouvá Daniela do roku 2028, konzervativní .

Když to spojím s tím, co napsal Dylan: jednou už jsme tuto skupinu lidí ignorovali. V roce 2015 jsme jim řekli, ať si jdou hrát na svůj pseudointelektuální Reddit. Tak ti mezitím vymysleli a postavili technologii, která dnes generuje desetimiliardové roční obraty a o které jejich vlastní tvůrci přiznávají, že ji úplně nerozumí.

Tito samí lidé teď znovu říkají něco šíleného: Říkají, že do dvou let nahradí programátory. Že do tří, čtyř let dorovnají nebo překonají špičkové experty ve všech oborech, kde se myslí hlavou - právníky, lékaře, výzkumníky, finanční analytiky, designéry, novináře... Že světová ekonomika nebude růst o dnešní dvě až tři procenta ročně, ale třeba o třicet, protože stroje pracují nepřetržitě, bez nemocenské, bez dovolené, bez výpovědi. Že v poušti budou stát továrny řízené umělou inteligencí, kde robot postaví robota a člověk u toho jen občas zkontroluje pojistky. A že možná brzy přijde okamžik, kdy AI začne vylepšovat sama sebe. Bod, ze kterého už není návratu, protože každý další krok vpřed udělá rychleji než ten předchozí. Bez nás. Dneska nám to připadá jako hodně divoký vývoj, ale když se ohlédneme zpátky, tak možná není na místě takové scénáře odmítat, ale více o nich mluvit.

Co s tím

Když se mě někdo zeptá: Máme se bát?

Odpovídám: Ne. Bát se nemá smysl. Strach je nejhorší rádce, jakého si můžete vybrat.

Co dělat?

* Poslouchat. Ne všechny – některé. Lidi, kteří v roce 2015 říkali divné věci a teď je vidíme v Anthropicu, na Redwood Research a v laboratořích po celém světě. Lidi, kteří mají u svých predikcí grafy a metodologii, ne klikací titulky. Lidi, kteří publikují svoje přepočty každé tři měsíce a posouvají je v obou směrech, ne jen v tom příjemném.

* Nečekat, že vám to vysvětlí instituce. Dylan ve svém článku přiznává hezkou věc - jeho původní skepticismus byl založen na tom, že žádná velká instituce v roce 2015 AI neřešila. Z toho odvozoval, že to nemůže být vážné. Mýlil se. Velké instituce jsou v predikcích budoucnosti často horší, než si myslíme.

* Nedávat všechnu svou pozornost umělé inteligenci. Ona si ji vezme i tak. Vezměte si knihu, jděte ven, naučte své dítě pracovat se dřevem. Mějte rádi toho, kdo s vámi sdílí kuchyň. Až tihle lidé z předchozích odstavců dorazí se svými předpověďmi, nebude vám platné, kolik máte na disku knížek o produktivitě. Bude vám přínosné jen to, co jste si stihli vybudovat jako lidé.

✌️🙏

Co bude mít v budoucnu opravdovou hodnotu?



This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit filipmolcan.substack.com/subscribe

Tento týden jsem si přečetl dva texty, po kterých jsem se musel jít projít. To tedy dělám celkem běžně, ale tentokrát jsem šel, i když venku pálilo sluníčko a všichni ostatní sousedé v Řecku spí a čerpají síly na večer. První od týmu AI Futures Project , který se zabývá předpovídáním, kdy přestane člověk programovat. Druhý od novináře Dylana Matthewse , který se po jedenácti letech omlouvá lidem, jež tehdy odepsal jako spekulanty. Já je tu trochu nemilosrdně shrnu. Kdo se bojí budoucnosti už teď, možná je lepší volbou tenhle e-mail smazat.

Konference, na které stáli za řečnickým pultem podivíni

V srpnu 2015 zorganizovali Efektivní altruisté konferenci EA Global. Mezi řečníky byli třeba Nick Bostrom (autor Superintelligence ), Stuart Russell (legenda počítačové vědy), Nate Soares (dnes autor knihy If Anyone Builds It Everyone Dies ) a tehdy ještě docela rozumný Elon Musk. Téma: jak nás všechny smete umělá inteligence.

Mezi účastníky byl i Dylan Matthews, novinář Voxu. Mluvil tam s mladým inženýrem z Googlu, který se jmenoval Chris Olah. S doktorandkou filozofie, která se jmenovala Amanda Askell nebo s programátorem PayPalu, který se jmenoval Buck Shlegeris.

Dylan z konference odjel s pocitem, že nadějné hnutí, které mohlo zachraňovat lidi v Africe a kuřata v klecích, zničí samo sebe spekulativní obavou z technologie, která ještě ani neexistuje. Napsal pak poměrně tvrdý článek do Voxu , v němž tu obavu označil za důkaz, že hnutí utíká od reálných problémů.

Bylo to v srpnu 2015. Transformer ještě nebyl vynalezen a OpenAI ještě nebyla založena. Ve světě nebylo nic, co by připomínalo dnešní ChatGPT.

O jedenáct let poté Dylan píše: měl jsem se dívat pozorněji.

Chris Olah mezitím stál u naší současnosti a pojmenoval celý obor mechanistic interpretability a spoluzaložil firmu Anthropic . Amanda Askell pracuje v té samé firmě a je přímo zodpovědná za osobnost modelu Claude. Buck Shlegeris vede Redwood Research , jednu z nejvážnějších technických laboratoří pro bezpečnost AI mimo zdi velkých firem.

Tři lidé, ke kterým tehdy Dylan chodil jako k podivínům, drží dnes v rukou kus globální technologické budoucnosti.

Netrefili to

A tady to začíná být zábavné. Tedy zábavné v tom “černém slova smyslu”.

Dylan ve svém článku zmiňuje Leopolda Aschenbrennera , bývalého výzkumníka OpenAI, který v roce 2024 napsal eseje pod názvem Situational Awareness . V nich predikoval, že do roku 2026 půjde do AI infrastruktury 520 miliard dolarů. Tehdy si všichni klepali na čelo. Reálně se investice odhadují na 650 až 700 miliard.

Zase jsme to podstřelili. Reálná čísla jsou divočejší než ta divoká predikce.

Stejně tak Ajeya Cotra a Peter Wildeford predikovali na konci roku 2024 vývoj AI v roce 2025. Dylan píše: byli velmi přesní - a kde se mýlili, mýlili se v tom, že podcenili obraty AI firem. Tedy nikoli v tom, že by AI rostla pomaleji, ale že roste rychleji, než si oni sami troufli odhadnout.

Anthropic? Tržby na úrovni 10 miliard dolarů ročně . Roste na desetinásobek každý rok. Claude Code, nástroj pro programování, dosáhl 2,5 miliardy dolarů ročního obratu za devět měsíců od spuštění . Technologický produkt, kterému není ani rok.

Baví vás Zprávy z lesa? Můžete mi koupit kafe nebo si čtení předplatit 💚.

Získáte komplet archiv, speciální čísla a další bonusy.

🎧 Zprávy z lesa jako podcast na Spotify nebo Applu 🎧

Revize do roku 2028

Tým AI Futures projektu (Daniel Kokotajlo, Eli Lifland, Brendan Halstead) zveřejnil čtvrtletní revizi svých predikcí . Daniel Kokotajlo je spoluautor proslulého scénáře AI 2027. Eli Lifland je profesionální forecaster. Tihle lidé tipují budoucnost odborně, né podle křišťálové koule.

Co revidovali?

Posunuli predikci momentu, kterému říkají Automated Coder – AC. Bod, ve kterém by AGI firma raději dala výpověď všem svým softwarovým inženýrům, než aby přestala používat AI pro programování.

Přečtěte si tu definici znovu. Pomalu.

Není to o tom, že AI bude lepší než programátoři. Je to o tom, že firmy radši propustí všechny své lidi, než aby AI vrátily. Z těch dvou možností si vyberou tu druhou.

Daniel posunul medián svých odhadů z konce roku 2029 na polovinu roku 2028 . Eli posunul ze začátku roku 2032 na polovinu roku 2030 .

Důvody? Nové modely jsou lepší, než si tým dokázal představit. Doba, za kterou se zdvojnásobí schopnosti AI v programování, se zkrátila z 5,5 měsíce na čtyři měsíce. METR (organizace, která tohle měří) zveřejnila novou metodologii a křivka jde nahoru rychleji, než se předpokládalo. Daniel přitom posunul požadavek na 80% spolehlivost Ze tří let na jeden rok – tedy si myslí, že stačí, aby AI zvládla v pohodě jednoroční úkoly, a budou propouštět.

Lidé, kteří pracují s umělou inteligencí uvnitř AI firem , nám říkají, že to bude dřív, než si myslíme my. V soukromí i veřejně své predikce utvrzují, místo aby je revidovali zpět.

To znamená, že lidé, kteří k technologiím sedí nejblíže, kteří vědí, co se chystá v laboratořích, na které se my smíme dívat až po šesti měsících jako na přefiltrovaný marketingový materiál – těm připadá tempo, které posouvá Daniela do roku 2028, konzervativní .

Když to spojím s tím, co napsal Dylan: jednou už jsme tuto skupinu lidí ignorovali. V roce 2015 jsme jim řekli, ať si jdou hrát na svůj pseudointelektuální Reddit. Tak ti mezitím vymysleli a postavili technologii, která dnes generuje desetimiliardové roční obraty a o které jejich vlastní tvůrci přiznávají, že ji úplně nerozumí.

Tito samí lidé teď znovu říkají něco šíleného: Říkají, že do dvou let nahradí programátory. Že do tří, čtyř let dorovnají nebo překonají špičkové experty ve všech oborech, kde se myslí hlavou - právníky, lékaře, výzkumníky, finanční analytiky, designéry, novináře... Že světová ekonomika nebude růst o dnešní dvě až tři procenta ročně, ale třeba o třicet, protože stroje pracují nepřetržitě, bez nemocenské, bez dovolené, bez výpovědi. Že v poušti budou stát továrny řízené umělou inteligencí, kde robot postaví robota a člověk u toho jen občas zkontroluje pojistky. A že možná brzy přijde okamžik, kdy AI začne vylepšovat sama sebe. Bod, ze kterého už není návratu, protože každý další krok vpřed udělá rychleji než ten předchozí. Bez nás. Dneska nám to připadá jako hodně divoký vývoj, ale když se ohlédneme zpátky, tak možná není na místě takové scénáře odmítat, ale více o nich mluvit.

Co s tím

Když se mě někdo zeptá: Máme se bát?

Odpovídám: Ne. Bát se nemá smysl. Strach je nejhorší rádce, jakého si můžete vybrat.

Co dělat?

* Poslouchat. Ne všechny – některé. Lidi, kteří v roce 2015 říkali divné věci a teď je vidíme v Anthropicu, na Redwood Research a v laboratořích po celém světě. Lidi, kteří mají u svých predikcí grafy a metodologii, ne klikací titulky. Lidi, kteří publikují svoje přepočty každé tři měsíce a posouvají je v obou směrech, ne jen v tom příjemném.

* Nečekat, že vám to vysvětlí instituce. Dylan ve svém článku přiznává hezkou věc - jeho původní skepticismus byl založen na tom, že žádná velká instituce v roce 2015 AI neřešila. Z toho odvozoval, že to nemůže být vážné. Mýlil se. Velké instituce jsou v predikcích budoucnosti často horší, než si myslíme.

* Nedávat všechnu svou pozornost umělé inteligenci. Ona si ji vezme i tak. Vezměte si knihu, jděte ven, naučte své dítě pracovat se dřevem. Mějte rádi toho, kdo s vámi sdílí kuchyň. Až tihle lidé z předchozích odstavců dorazí se svými předpověďmi, nebude vám platné, kolik máte na disku knížek o produktivitě. Bude vám přínosné jen to, co jste si stihli vybudovat jako lidé.

✌️🙏

Co bude mít v budoucnu opravdovou hodnotu?



This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit filipmolcan.substack.com/subscribe

Popis podcastu

Pozitivní zprávy z lesa a businessu, každých 14 dní. Audioverze newsletteru. Pokud máte prostor, přečtěte si newsletter i s odkazy na:

filipmolcan.substack.com