Podílíte se na vývoji vzdělávacích jazykových modelů umělé inteligence pro studenty i učitele. O co se jedná a budou tyto modely přístupné všem?
Dostupnost je pro nás důležitá. Proto jsme náš prozatím nejpokročilejší jazykový model LearnLM nedávno integrovali do Gemini 2.5. Díky tomu se Gemini dostal na přední pozici z hlediska modelů vhodných pro vyučování a učení se.
Learn LM je rodina jazykových modelů (LLM) zaměřených na vzdělávání. Tyto modely jsou speciálně doladěné pro účely učení. Technická zpráva, kterou jsme nedávno publikovali, ukazuje, že Gemini 2.5 je zatím nejvíc pedagogický jazykový model vůbec. Jinými slovy: Je navržen tak, aby byl co nejvíc personalizovaný pro učení.
Dalším příkladem je třeba NotebookLM, veřejně dostupný nástroj, do kterého můžete nahrát vaše dokumenty, odkazy na weby nebo třeba YouTube videa a on vám z toho všeho udělá úžasný, kreativní souhrn, přičemž svoje odpovědi opírá pouze o zdroje, které od vás dostal.
Můžu s NotebookLM vést dialog?
Můžete tam mít dva virtuální diskutéry, kteří mluví, o čemkoli potřebujete. Říkáme tomu "audio přehled" a funguje i v češtině. Můžete vše personalizovat. Určíte, na co se mají diskutéři zaměřit, a nástroj vám vygeneruje třeba rovnou celý podcast. Dlouhý, krátký, vy jste režisér. Tohle je jeden z nástrojů, který používají studenti i učitelé už dnes.
Pojmy
Gemini: chatbot od Googlu. Pracuje s různými jazykovými modely podle typu zadání.
NotebookLM: nástroj Googlu, který pracuje pouze se soubory a linky, které mu uživatelé zadají. Dokáže z nich vytvořit podcast či audio přehled.
LearnLM: rodina velkých jazykových modelů, které jsou vyladěny speciálně pro učení/vzdělávání. Dovedou vytvořit různé verze stejného textu podle úrovně žáků nebo vás přezkoušet a dát vám zpětnou vazbu. Tyto jazykové modely jsou nyní součástí chatbota Gemini.
Poznají NotebookLM a Gemini, jestli jsem například pomalejší nebo naopak bystřejší student?
Součástí procesu je učitel. To je pro nás klíčové. Všechno, co vyvíjíme, tvoříme s tím, že učitel musí být zapojen. Vždycky. Samozřejmě, student může pracovat s NotebookLM a s Gemini i sám doma ve volném čase, což je skvělé. Ale ve třídě je to učitel, kdo určuje směr.
Představte si třídu. Učitel přijde do třídy s nějakým článkem. A každému studentovi může ten samý text prostřednictvím Gemini upravit podle jeho potřeb. Tak, aby mu daný student porozuměl. Jednomu studentovi může dát tu nejtěžší a nejkomplexnější verzi, protože ví, že to zvládne. Ale jiný spolužák třeba tak nadaný není. Takže pro něj může ten samý text trochu zjednodušit.
Pořád to bude článek o Albertu Einsteinovi, ale jeden student dostane pokročilejší, sofistikovanější verzi a druhý přístupnější, jednodušší. Už žádné: Jedna bota padne všem.
Co se týče samostatné práce studenta s programem. Program se mu přizpůsobí na základě jeho interakce s LearnLM?
Ano, pozná vás a adaptuje se na váš styl učení. Představte si, že děláte domácí úkol a pracujete s Gemini. Můžete si nechat vygenerovat testové otázky. Třeba když se připravujete na velký test a chcete si ověřit, jak na tom jste, můžete nechat Gemini vytvořit kvíz a dát vám zpětnou vazbu šitou přímo na míru.
Například: "Aleno, v tomhle jsi dobrá. Tady bys mohla trochu přidat. Doporučuju ti procvičit ještě tenhle typ úloh." Takže získáte cílenou, personalizovanou zpětnou vazbu. Na tohle učitel za 45 minut v třídě se 30 studenty nemá čas. Tahle funkce i možnost upravit text jsou už teď dostupné v Gemini.
Jak reagují na tyhle nástroje učitelé?
Jejich reakce se časem vyvíjí. Ještě pár měsíců zpět jsem při své práci s učiteli narážela na úzkost i strach. Dnes je většina učitelů, se kterými mluvím, do nového pojetí vzdělávání nadšená. Zároveň zdůrazňují, že možnost využívat vlastní, osvědčené vzdělávací materiály je pro zajištění kvality výuky - kterou vytvářejí třeba i částečně s pomocí AI - klíčová.
Řada učitelů napříč školami - základními, středními a hlavně univerzitami - zároveň považuje AI za hrozbu.
Ano, je tady obava, že AI umožní studentům víc podvádět. Ale pokud to tak je, je třeba změnit způsob zkoušení, úkolů i hodnocení. Je čas studenty hodnotit jinak. Za kritické myšlení, kreativitu, prezentace, schopnost mluvit, spolupracovat. To je něco, co AI - aspoň zatím - za nás neumí.
Co AI už například umí, může každý učitel najít v Google Classroom. Když si učitel nechá od AI pomoct například s nutnou administrativou, zbude mu víc času na samotné studenty. Být učitelem je v jádru totéž jako být průvodcem, mentorem. Znamená to vést, usměrňovat, poskytovat podporu. Být empatický vůči potřebám studentů. O tom to celé je.
Pracujeme na zajištění faktické správnosti
Už dnes máme pod vyhledávací lištou v Googlu přehled daného tématu od AI. Problém je v tom, že na fakticitu AI se zatím nedá spolehnout.
My jsme odvážní a ambiciózní, ale ještě víc jsme zodpovědní. To znamená, že bychom nezpřístupnilI AI modely, pokud nejsou bezpečné, přesné a fakticky správné.
Internet je nicméně plný článků vygenerovaných AI, které jsou zcela smyšlené. A i ty se objevují ve vyhledávání a následně i v panelu vědomostí Google. To se už stalo.
Stalo, ale dnes už máme ochranné mechanismy a způsoby, jak tato rizika minimalizovat. Syntetický obsah je v pořádku, pokud je přesný. A právě na tom pracuje náš tým: na zajištění faktické správnosti. Naším cílem je, aby vše, co AI vygeneruje, bylo přesné a opřené o důvěryhodné zdroje.
Mimochodem, na konferenci Google I/O jsme oznámili novinku jménem SynthID Detector. Je to nový portál, který dokáže rozpoznat online obsah vygenerovaný umělou inteligencí. Cokoli, co je vygenerováno synteticky prostřednictvím našich nástrojů nebo nástrojů našich partnerů, lze pomocí SynthID identifikovat. Je to nástroj od Googlu, který se momentálně testuje a brzy bude k dispozici.
Musíme se v detekci uměle vytvořeného obsahu neustále zlepšovat. Je to výzva, která se bude s časem dále vyvíjet.
Uměle generovaného obsahu bude přibývat. Přijde doba, kdy bude AI 100% fakticky správná?
Nikdy nebudeme mít 100% jistotu. Sami si klademe otázku: Investujeme do faktické správnosti, ale bude tenhle projekt trvat věčně? Nevím. Někdo říká, že za tři roky budeme schopni zmapovat celý internet a zajistit, aby bylo všechno fakticky správné. Jiní tvrdí, že to díky přibývání uměle generovaného obsahu bude trvat déle.
Jisté je, že Gemini 2.5 je v porovnání s předchozími verzemi ten nejbezpečnější a nejfaktičtější model, který jsme doposud uvedli. Dokud výzva vytvářet fakticky správné modely bude trvat, budeme ji řešit. I kdyby to mělo mít navždy.
Strojové učení dnes není dokonalé. Teorie Emily Bender například tvrdí, že v současné době je AI "stochastickým papouškem". To znamená, že generuje jazyk bez porozumění jeho významu. Jak AI naučit souvislostem a opravdovému porozumění textu?
To je férová otázka. Snažíme se naše modely ukotvovat v kontextu, v ověřených a důvěryhodných zdrojích. Pracujeme na tom, aby si modely dokázaly lépe uchovat informace, zapamatovat si je, aby díky tomu neztrácely kontext. Zároveň pracujeme na jejich schopnosti propojovat jednotlivé části textu a porozumět souvislostem mezi nimi. Není to snadné, ale učíme modely, aby byly inteligentnější a lépe rozuměly významu celku. Každá nová verze velkého jazykového modelu je oproti předchozímu neuvěřitelně vylepšená. Ta technologie v čase postupuje velmi rychle.
AI je cesta k novým schopnostem
Co vzkázat lidem, kteří díky narůstající síle umělé inteligence ztratí motivaci se vzdělávat?
Souhlasím, že umělá inteligence bude silnější a chytřejší. Já, když pracuji s nástroji AI, cítím, že mi to dodává sílu. Pokud bude AI vyvíjena zodpovědně, není důvod, aby se tohle v budoucnu změnilo. V některých oblastech je AI už teď chytřejší než já, ale já mám lidské dovednosti, které jí stále chybí. Sama sebe vidím jako dirigenta AI. Můžu propojit tři nebo čtyři různé AI nástroje, řídit je a těžit z jejich schopností. Jsem to já, kdo má kontrolu.
Tyto nástroje se stávají dostupnějšími. A umožňují vám osvojit si nové dovednosti, které jste dřív neměli. Takže to není jen zesilovač toho, co už umíte. Je to cesta k novým schopnostem. Tak o AI přemýšlím já. Nebojím se jí. Jsem optimistická. Ano, umělá inteligence je transformační. Ano, může být trochu děsivá. Chápu ty obavy. "Vezme mi práci?" Ale já říkám: "Učiňte z AI svého partnera."
My jako lidé musíme sílu AI smysluplně využít. Jsou dvě fáze užívání AI. V první fází AI může přebrat část úkolu, které děláte vy. Díky tomu získáte čas a prostor se věnovat jiným věcem. V druhé fázi vám AI umožní dělat věci, které byste doteď nezvládli. Třeba programovat se dnes s pomocí AI může naučit téměř každý.
Vážné obavy pocházejí z předpovědi programátora OpenAI Leopolda Aschenbrennera, že zhruba do dvou let už tu budeme mít AGI (obecnou umělou inteligenci). Tedy takovou, která se bude schopna sama replikovat. A tehdy bychom mohli ztratit kontrolu.
Jsem si těchto předpovědí vědoma. Realita je taková, že my nevíme, co bude za tři, pět nebo dvacet let. Nevím to ani já ani nikdo jiný.
Brian J. A. Boyd nabízí ve své eseji o AI přirovnání k sociálním médiím. Sociální média změnila naše osobní životy, vztahy, politiku. A my na to nebyli připraveni. Takže pointa těchto úvah není děsit lidstvo, ale upozornit na to, že se na změny, které přijdou, musíme tentokrát lépe připravit.
Přesně tak. Klíčem je za mě vzdělávání a digitální gramotnost v oblasti AI.
Lidé už od útlého věku musí rozumět tomu, co umělá inteligence znamená, učit se o ní kriticky přemýšlet a být zapojeni do toho, co se v tomto oboru děje. Regulace je také něco, co musí být na stole. U sociálních sítí jsme ji podcenili.
Google jako firma - stejně jako další velcí technologičtí hráči - to nemůže zvládnout sám. Spolupracujeme s vládami, nevládními organizacemi, občanskou společností, univerzitami, akademickou sférou i průmyslem. Abychom si byli jistí, že budeme s umělou inteligencí zacházet odpovědně. A musíme začít teď. A nemyslím tím omezovat výzkum AI a technologií, ale ujistit se, že jejich aplikace je bezpečná.
Text vznikl ve spolupráci se společností Google.
Kdo je Ronit Levavi Morad?
Ronit Levavi Morad v Google Research pracuje v několika oblastech, jednou z nich je AI pro společnost.
Je klíčovou postavou v oblasti výzkumu umělé inteligence ve společnosti Google. Jako šéfka kabinetu viceprezidenta Yossi Matiasa vede strategické iniciativy napříč výzkumnými týmy, které se věnují oblastem od generativní AI přes kvantové výpočty, základní modely strojového učení až po využití AI pro zdraví, klima či vzdělávání.
Jako globální lídryně pro AI Literacy v Google Research podporuje vývoj vzdělávacích nástrojů, které propojují špičkovou pedagogiku s možnostmi umělé inteligence. Stojí například za iniciativami jako LearnLM (model Gemini přizpůsobený vzdělávání), Text Levelling (funkce v Google Classroom) nebo AI Quest (interaktivní výuka vytvořená ve spolupráci se Stanfordem).
Ronit je rovněž zakladatelkou programu Hello Tech, který přináší AI vzdělávání do škol po celém světě a pomáhá učitelům i studentům získat dovednosti pro budoucnost. Její programy už oslovily přes 100 000 studentů ve více než 20 zemích. Za svůj přínos v oblasti technologií a vzdělávání byla v roce 2017 zařazena mezi 50 nejvlivnějších žen v Izraeli.
Vzdělávání je pro Ronit Levavi Moradi osobní vášní a prioritou. "Naše týmy pracují na AI pro vzdělávání, řešíme, jak může AI pomáhat zlepšovat vzdělávání jako celek. Tedy studentům i učitelům. Jednou z věcí, které jsme udělali před několika lety, bylo rozhodnutí, že potřebujeme jazykové modely (LLM), modely umělé inteligence, které jsou speciálně určené pro vzdělávání a dokáží do konverzační AI vnést to nejlepší z pedagogiky."