Programování

Stručná historie umělé inteligence

V počátcích umělé inteligence se počítačoví vědci pokoušeli znovu vytvořit v počítači aspekty lidské mysli. Jedná se o typ inteligence, kterou tvoří sci-fi - stroje, které si myslí, víceméně jako my. Tento typ inteligence se nepřekvapivě nazývá srozumitelnost. Počítač se srozumitelností lze použít k prozkoumání toho, jak uvažujeme, učíme se, posuzujeme, vnímáme a provádíme mentální jednání.

Raný výzkum srozumitelnosti se zaměřil na modelování částí reálného světa a mysli (z říše kognitivních vědců) v počítači. Je pozoruhodné, když vezmete v úvahu, že tyto experimenty proběhly téměř před 60 lety.

Rané modely inteligence se zaměřily na deduktivní uvažování, aby dospěly k závěrům. Jeden z prvních a nejznámějších A.I. Programy tohoto typu byly Logic Theorist, psané v roce 1956, aby napodobily dovednosti člověka při řešení problémů. Logický teoretik brzy prokázal 38 z prvních 52 vět ve druhé kapitole Principia Mathematica, ve skutečnosti zlepšující jednu větu v procesu. Poprvé bylo jasně prokázáno, že stroj může vykonávat úkoly, které až do tohoto okamžiku byly považovány za vyžadující inteligenci a kreativitu.

Výzkum se brzy obrátil k jinému typu myšlení, k indukčnímu uvažování. Vědec používá induktivní uvažování při zkoumání dat a pokusu o hypotézu, která by je vysvětlila. Pro studium indukčního uvažování vytvořili vědci kognitivní model založený na vědcích pracujících v laboratoři NASA, který jim pomohl identifikovat organické molekuly pomocí znalostí organické chemie. Program Dendral byl prvním skutečným příkladem druhého znaku umělé inteligence, instrumentalita, soubor technik nebo algoritmů k provedení úlohy indukčního uvažování, v tomto případě identifikace molekuly.

Dendral byl jedinečný, protože zahrnoval také první znalostní základnu, soubor pravidel if / then, které zachytily znalosti vědců, které se používaly společně s kognitivním modelem. Tato forma poznání by později byla nazývánaexpertní systém. Mít oba druhy „inteligence“ dostupné v jediném programu umožnilo vědcům počítačů se zeptat: „Co dělá některé vědce tak lepšími než ostatní? Mají vynikající kognitivní schopnosti nebo lepší znalosti? “

Koncem šedesátých let byla odpověď jasná. Výkon Dendralu byl téměř úplně funkcí množství a kvality znalostí získaných od odborníků. Kognitivní model byl jen slabě spojen se zlepšením výkonu.

Tato realizace vedla k zásadnímu posunu paradigmatu v komunitě umělé inteligence. Znalostní inženýrství se ukázalo jako disciplína pro modelování specifických oblastí lidské odbornosti pomocí expertních systémů. A expertní systémy, které vytvořili, často převyšovaly výkon jakéhokoli jediného člověka s rozhodovací pravomocí. Tento pozoruhodný úspěch vyvolal velké nadšení pro expertní systémy v komunitě umělé inteligence, armádě, průmyslu, investorech a populárním tisku.

Jakmile se expertní systémy staly komerčně úspěšnými, vědci obrátili pozornost na techniky modelování těchto systémů a jejich větší pružnosti napříč problémovými doménami. To bylo během tohoto období, že objektově orientovaný design a hierarchické ontologie byly vyvinuty komunitou AI a přijaty jinými částmi počítačové komunity. Dnes jsou hierarchické ontologie jádrem znalostních grafů, které v posledních letech zaznamenaly oživení.

Když se vědci usadili na formě reprezentace znalostí známé jako „produkční pravidla“, což je forma predikátové logiky prvního řádu, zjistili, že systémy se mohou učit automaticky; tj. systémy coud zapisují nebo přepisují pravidla sama za účelem zlepšení výkonu na základě dalších dat. Dendral byl upraven a dostal schopnost naučit se pravidla hmotnostní spektrometrie na základě empirických dat z experimentů.

Jak dobré byly tyto expertní systémy, měly omezení. Byly obecně omezeny na konkrétní problémovou doménu a nedokázaly rozlišit od více pravděpodobných alternativ nebo využít znalosti o struktuře nebo statistické korelaci. K řešení některých z těchto problémů vědci přidali faktory jistoty - číselné hodnoty, které naznačovaly, jak pravděpodobná je konkrétní skutečnost.

Začátek druhého posunu paradigmatu v AI nastal, když si vědci uvědomili, že faktory jistoty lze zabalit do statistických modelů. Statistiky a Bayesiánské závěry lze použít k modelování odborných znalostí z empirických dat. Od tohoto okamžiku by umělé inteligenci stále více dominovalo strojové učení.

Nastal problém. Ačkoli techniky strojového učení, jako jsou náhodné lesy, neuronové sítě nebo GBT (stromy podporované gradientem), produkují přesné výsledky, jsou téměř neproniknutelnými černými skříňkami. Bez srozumitelného výstupu jsou modely strojového učení v několika ohledech méně užitečné než tradiční modely. Například s tradičním modelem AI se odborník může zeptat:

  • Proč model udělal tuto chybu?
  • Je model zaujatý?
  • Můžeme prokázat soulad s předpisy?
  • Proč model nesouhlasí s odborníkem na doménu?

Nedostatek srozumitelnosti má také důsledky pro výcvik. Když se model rozbije a nedokáže vysvětlit proč, je obtížnější jej opravit. Přidat další příklady? Jaké příklady? Přestože v mezidobí můžeme učinit několik jednoduchých kompromisů, jako je přijetí méně přesných předpovědí výměnou za srozumitelnost, schopnost vysvětlit modely strojového učení se ukázala jako jeden z dalších velkých milníků, kterých má být v AI dosaženo.

Říkají, že historie se opakuje. Raný výzkum AI, stejně jako dnešní výzkum, se zaměřil na modelování lidského uvažování a kognitivních modelů. Tři hlavní problémy, kterým čelí první výzkumní pracovníci v oblasti AI - znalosti, vysvětlení a flexibilita - také zůstávají ústředními v současných diskusích o systémech strojového učení.

Znalosti nyní mají formu dat a potřebu flexibility lze vidět v křehkosti neuronových sítí, kde mírné poruchy dat produkují dramaticky odlišné výsledky. Vysvětlitelnost se také ukázala jako nejvyšší priorita pro výzkumníky AI. Je poněkud ironické, jak jsme se o 60 let později posunuli od pokusu o replikaci lidského myšlení k dotazování strojů, jak si myslí.

$config[zx-auto] not found$config[zx-overlay] not found