Pochopení AI a některé klíčové termíny

An icon of a key

AI přichází s množstvím technologie a terminologie, z nichž většina je nepochopitelná pro všechny kromě datových vědců. Uživatelé Chat AI nepotřebují hluboké znalosti AI terminologie ani technických konceptů. Konverzační povaha systému umožňuje intuitivní interakce bez specializovaných znalostí o tom, jak věci fungují. Zaměření na to, co Chat AI vlastně dokáže, je důležitější.

Při přípravě této knihy jsem zápasil s tím, co je pro mě jako autora knihy o AI “zodpovědné” udělat. Konvenční přístup je poskytnout krátké vysvětlení vědy a přehled často používaných termínů.

To neudělám.

Nabídnu zde několik externích odkazů na to, co považuji za rozumně srozumitelné stručné popisy základů AI.

Jaká je budoucnost AI?: Společnost McKinsey & Co. (duben 2024) má dobrou sadu vysvětlovačů.

Podobně Gartnerův Generative AI (nedatováno) není špatný.

Futurepedia nabízí slušné shrnutí AI Fundamentals (květen 2024)

Po vyřešení jak-na-to nyní představím několik termínů, které považuji za cenné pochopit. Ne proto, že byste je museli znát k používání softwaru. Pouze že tato sada termínů odkazuje na některé klíčové aspekty toho, jak současná generace AI skutečně funguje.

Můj případ pro řešení těchto termínů a konceptů jsou autoři a vydavatelé, kteří (i) chtějí jít o úroveň hlouběji do AI, z jakéhokoli důvodu, nebo (ii) chtějí porozumět kontextu současné kritiky AI, nebo (iii) chtějí přispět k strategickým diskuzím o tom, jak by jejich kolegové nebo organizace měly přistupovat k AI.

Jinými slovy, nejde o to, co potřebujete vědět, ale spíše o to, co byste mohli chtít vědět. Zde jsou, v náhodném pořadí:

Výzvy a výzvy

Můžete otevřít software Chat AI a jednoduše zadat otázku, podobně jako to děláte na Googlu.

Velký jazykový model (LLM)

Velké jazykové modely fungují tak, že analyzují obrovské množství (většinou) psaného materiálu, což jim umožňuje předpovědět, jaká slova nebo věty by měly následovat v konverzaci nebo písemném díle. Nerozumí jazyku v lidském smyslu, místo toho zpracovávají text tím, že jej rozdělí na menší části (nazývané tokeny) a poté převádějí tokeny na čísla. Zpracovávají text jako čísla, regurgitují další čísla, která jsou pak na výstupu převedena zpět na text. To je příliš zjednodušené vysvětlení, proč Chat AI neobsahuje chráněná díla: je postaveno na číslech, které představují obrovskou abstrakci od základních textů.

LLM jsou trénovány na tom, jak se jazyk obvykle používá, a poté generují odpovědi na základě tohoto pochopení. Máme tendenci podceňovat, jak předvídatelný je většina jazyka. Chat AI může generovat text, který je (někdy šokujícím způsobem) podobný existující literatuře, ale záměrně nemá schopnost načítat konkrétní výňatky nebo kopie chráněných textů. (Vím, že mnozí z vás slyšeli o žalobě New York Times proti OpenAI – Times dokázali přinutit ChatGPT, aby doslovně zopakovalo některé části dříve publikovaných článků.)

Generativní AI

Nejdůležitější věcí, kterou je třeba pochopit u tohoto termínu, je část “generativní”. Generativní AI generuje nový text.

Generativní předtrénovaný transformátor (GPT)

To je nejvíce technický termín zde, popisuje specifický typ LLM vyvinutý OpenAI. “Generativní” označuje jeho schopnost vytvářet text, “předtrénovaný” znamená, že byl vytrénován na velkém množství textových dat a “transformátor” odkazuje na software, který používá. Vědět, co GPT znamená, je užitečné jen proto, abyste pochopili, co znamená GPT v ChatGPT.

ChatGPT

ChatGPT je software, který vidíte; GPT je to, co stojí za softwarem. Uživatelé zažívají ChatGPT, nikoli GPT za ním. Jak bylo uvedeno výše, ChatGPT je jen jedním z několika online softwarových systémů Chat AI s podobnou funkcionalitou.

Ještě jeden termín, který často narazíte a který je pro mnohé neznámý:

Korpus

Slovníková definice korpusu je “sbírka psaných textů” (i když ve skutečnosti to není vždy text). Termín se používá ve vztahu k tomu, na čem jsou GPT trénovány: obrovské korpusy (většinou) textu. Jsme informováni, že největší korpusy obsahují stovky miliard slov. Pro obyčejné smrtelníky je to nemožné pochopit. Nepřipadá vám Wikipedie jako obrovská, obsahující nesmírné množství slov? No, na Wikipedii je jen 4,5 miliardy slov – GPT-4 byl trénován na více než bilionu.

Myslím, že je důležité zvážit tento rozsah. Autoři se pochopitelně obávají, že 75 000 slov, plus mínus, v jejich knize mohlo být nasáto do velkého jazykového modelu. Možná ano (více níže). Ale pokud je to pravda, zvažte, jak malou hodnotu má jakákoli kniha pro celkovou sílu dnešních velkých jazykových modelů. Je to skutečně zanedbatelné. Dokonce i 10 000 knih je jako kapka v moři.