Mapa wiedzy AI: jak klasyfikować technologie AI

Szkic nowego krajobrazu technologii AI

Krótsza wersja tego artykułu pojawiła się najpierw na Forbes

Artykuł został również nagrodzony srebrną odznaką KDnuggets jako jeden z najczęściej czytanych i udostępnianych w sierpniu 2018 r.

I. Wstępne myśli

Od jakiegoś czasu jestem w obszarze sztucznej inteligencji i jestem świadomy, że istnieje wiele klasyfikacji, wyróżnień, krajobrazów i infografik, które reprezentują i śledzą różne sposoby myślenia o sztucznej inteligencji. Jednak nie jestem wielkim fanem tych ćwiczeń kategoryzacyjnych, głównie dlatego, że myślę, że wysiłek klasyfikowania dynamicznych punktów danych we wcześniej określonych polach naprawczych często nie jest wart korzyści z posiadania tak „jasnych” ram (jest to uogólnienie oczywiście, ponieważ czasami są one bardzo przydatne).

Jeśli chodzi konkretnie o sztuczną inteligencję, uważam również, że wiele kategoryzacji jest niekompletnych lub nie jest w stanie uchwycić silnych fundamentalnych powiązań i aspektów tej nowej fali sztucznej inteligencji.

Pozwólcie, że najpierw opowiem o uzasadnieniu tego postu. Współpracując ze strategiczną agencją ds. Innowacji Chôra, chcieliśmy stworzyć wizualne narzędzie, które pozwoli na pierwszy rzut oka zrozumieć złożoność i głębokość tego zestawu narzędzi, a także stworzyć mapę, która może pomóc ludziom orientującym się w dżungli AI. Powinieneś spojrzeć na poniższy wykres jako sposób na uporządkowanie nieustrukturyzowanej wiedzy w rodzaj ontologii, a ostatecznym celem nie jest dokładne przedstawienie wszystkich istniejących informacji o sztucznej inteligencji, ale raczej posiadanie narzędzia do opisu i dostępu do części tego zestawu informacji.

To, co następuje, to próba narysowania architektury w celu uzyskania dostępu do wiedzy na temat sztucznej inteligencji i śledzenia pojawiającej się dynamiki, brama do wcześniej istniejącej wiedzy na ten temat, która pozwoli ci zbadać dodatkowe informacje i ostatecznie stworzyć nową wiedzę na temat sztucznej inteligencji.

Przydatność końcowej pracy powinna zatem pomóc ci osiągnąć trzy rzeczy: zrozumieć, co się dzieje i mieć mapę, która podąży ścieżką; zrozumienie, gdzie obecnie używana jest inteligencja maszynowa (w odniesieniu do tego, gdzie nie była używana w przeszłości); zrozumienie, co i ile problemów zostało przeredagowanych, aby umożliwić AI ich rozwiązanie (jeśli znasz pracę Agrawal i in., 2018, są to bezpośrednie konsekwencje spadku kosztów technologii prognozowania).

Zasadniczo ten artykuł jest skierowany zarówno do osób rozpoczynających AI, aby dać im szerokie wyobrażenie o tym, co tam jest, jak również do ekspertów i praktyków, którzy eksperymentują z tymi technologiami przez pewien czas (z wyraźną prośbą o przesłanie opinii na temat tego, w jaki sposób ustrukturyzujesz go lub inne technologie, które powinny zostać przechwycone przez widmo AI).

Jestem również bardzo świadomy tego, że jest to ambitne zadanie, więc po prostu spójrz na to jako na pierwszy szkic lub próbę zrobienia tego, a nie na ostateczne rozwiązanie.

Pozwólcie, że zakończę to wprowadzenie czymś, co odkryłem, próbując osiągnąć cel stworzenia tego wizualnego: jest to bardzo, bardzo trudne. Próba przedstawienia jak największej ilości informacji na dwuwymiarowej, nieoczywistej mapie była ogromnym wyzwaniem, czego nie zdajesz sobie sprawy, dopóki nie spróbujesz tego zrobić samodzielnie. Zachęcam was wszystkich do zrobienia tego samego, aby zrozumieć, co mam na myśli (wierzcie mi, wcale nie jest to łatwe, szczególnie biorąc pod uwagę rozbieżności w opiniach, punktach widzenia i podejściach stosowanych w AI w ciągu ostatnich 60 lat). To prowadzi mnie do ostatniego zrzeczenia się odpowiedzialności: czasami musiałem zbliżyć koncepcje lub samą klasyfikację w celu zachowania kompromisu między dokładnością a jasnością, więc z góry wybacz mi jakieś drobne (lub poważne, czyjeś oczy) zniekształcenie.

Przejdźmy teraz do mapy wiedzy AI (AIKM).

II. Domena problemowa + Podejście = rozwiązanie technologiczne

Więc zaczynamy, to wszystko. Prawdopodobnie spodziewałeś się po wprowadzeniu dziwnego silnika VR, który wyświetla wiele wiązek światła dla każdej technologii, ale zamiast tego jest to staromodny dwuwymiarowy wykres. Tak proste jak to.

Przyjrzyjmy się jednak trochę bliżej.

Na osiach znajdziesz dwie makrogrupy, tj. AI Paradigms i AI Problem Domains. Paradygmaty AI (oś X) są tak naprawdę podejściami stosowanymi przez badaczy AI w celu rozwiązania określonych problemów związanych z AI (obejmuje to metody, o których wiemy, że są aktualne). Z drugiej strony Domeny Problemowe AI (oś Y) są historycznie rodzajem problemów, które AI może rozwiązać. W pewnym sensie wskazuje również na potencjalne możliwości technologii AI.

Dlatego zidentyfikowałem następujące paradygmaty AI:

  • Narzędzia oparte na logice: narzędzia używane do reprezentacji wiedzy i rozwiązywania problemów;
  • Narzędzia oparte na wiedzy: narzędzia oparte na ontologiach i ogromnych bazach pojęć, informacji i reguł;
  • Metody probabilistyczne: narzędzia, które pozwalają agentom działać w niekompletnych scenariuszach informacyjnych;
  • Uczenie maszynowe: narzędzia, które pozwalają komputerom uczyć się na podstawie danych;
  • Wcielona inteligencja: zestaw narzędzi inżynieryjnych, który zakłada, że ​​ciało (lub przynajmniej częściowy zestaw funkcji, takich jak ruch, percepcja, interakcja i wizualizacja) jest wymagane dla wyższej inteligencji;
  • Wyszukiwanie i optymalizacja: narzędzia umożliwiające inteligentne przeszukiwanie wielu możliwych rozwiązań.

Te sześć paradygmatów można również podzielić na trzy różne podejścia makro, a mianowicie symboliczne, pod-symboliczne i statystyczne (reprezentowane przez różne kolory). W skrócie, podejście symboliczne stwierdza, że ​​inteligencję ludzką można sprowadzić do manipulacji symbolami, pod-symboliczną, że nie należy przedstawiać żadnych konkretnych reprezentacji wiedzy ex-ante, natomiast podejście statystyczne opiera się na narzędziach matematycznych do rozwiązywania określonych podproblemów.

Szybka dodatkowa uwaga: możesz usłyszeć ludzi mówiących o „plemionach AI”, koncepcja zaproponowana przez Pedro Domingos (2015), która grupuje badaczy w grupy w oparciu o metody stosowane do rozwiązywania problemów. Możesz łatwo zmapować te pięć plemion za pomocą naszej klasyfikacji paradygmatu (bez uwzględnienia wcielonej grupy inteligencji), tj. Symboliści z podejściem opartym na logice (używają logicznego rozumowania opartego na abstrakcyjnych symbolach); Łączący się z uczeniem maszynowym (inspirowani mózgiem ssaków); Ewolucjoniści z wyszukiwaniem i optymalizacją (inspirowani ewolucją darwinowską); Bayesianie z metodami probabilistycznymi (wykorzystują modelowanie probabilistyczne); i wreszcie Analogizatory z metodami opartymi na wiedzy, ponieważ próbują ekstrapolować z istniejącej wiedzy i poprzednich podobnych przypadków.

Zamiast tego oś pionowa określa problemy, z których skorzystano AI, a klasyfikacja tutaj jest dość standardowa:

  • Uzasadnienie: zdolność do rozwiązywania problemów;
  • Wiedza: umiejętność reprezentowania i rozumienia świata;
  • Planowanie: zdolność do ustalania i osiągania celów;
  • Komunikacja: umiejętność rozumienia języka i komunikacji;
  • Percepcja: zdolność do przekształcania surowych sygnałów sensorycznych (np. Obrazów, dźwięków itp.) W użyteczne informacje.

Nadal zastanawiam się, czy ta klasyfikacja jest wystarczająco duża, aby uchwycić całe spektrum problemów, z którymi się obecnie borykamy, czy też należy dodać więcej instancji (np. Kreatywność lub Ruch). Na razie jednak pozostanę przy 5-klastrowym.

Wzory pudełek dzielą technologie na dwie grupy, tj. Wąskie aplikacje i ogólne aplikacje. Użyte słowa są celowo nieco mylące, ale trzymajcie mnie przez sekundę, a wyjaśnię, co miałem na myśli. Dla każdego, kto zaczyna pracę w AI, znajomość różnicy między słabą / wąską AI (ANI), silną / ogólną AI (AGI) i sztuczną super inteligencją (ASI) jest najważniejsza. Dla jasności ASI jest po prostu spekulacją na bieżąco, generalna sztuczna inteligencja jest ostatecznym celem i świętym graalem badaczy, podczas gdy wąska sztuczna inteligencja jest tym, co naprawdę mamy dzisiaj, tj. Zestaw technologii, które nie są w stanie poradzić sobie z niczym poza ich zakresem (co jest główną różnicą w przypadku AGI).

Dwa rodzaje linii używane na wykresie (ciągły i kropkowany) następnie chcą wyraźnie wskazać to rozróżnienie i dać ci pewność, że kiedy przeczytasz inny wstępny materiał sztucznej inteligencji, nie zginiesz całkowicie. Jednak jednocześnie różnica tutaj przedstawia technologie, które mogą rozwiązać tylko określone zadanie (zwykle lepsze niż ludzie - wąskie aplikacje) i inne, które mogą dziś lub w przyszłości rozwiązać wiele zadań i wchodzić w interakcje ze światem (lepiej niż wielu ludzi - Ogólne zastosowania).

Na koniec zobaczmy, co znajduje się na samym wykresie. Na mapie przedstawiono różne klasy technologii AI. Uwaga: celowo nie nazywam konkretnych algorytmów, ale skupiam je w makrogrupy. Nie dostarczam ani oceny wartości tego, co działa, a co nie, ale po prostu wymieniam, do czego mogą się zwrócić badacze i badacze danych.

Jak więc czytasz i interpretujesz mapę? Pozwól, że dam ci dwa przykłady, które pomogą ci to zrobić. Jeśli spojrzysz na przetwarzanie języka naturalnego, obejmuje to klasę algorytmów, które wykorzystują połączenie podejścia opartego na wiedzy, uczenia maszynowego i metod probabilistycznych do rozwiązywania problemów w dziedzinie percepcji. Jednocześnie jednak, jeśli spojrzysz na puste miejsce na przecięciu paradygmatu opartego na logice i problemach z rozumowaniem, możesz się zastanawiać, dlaczego nie ma tam technologii. To, co przekazuje mapa, nie polega na tym, że kategorycznie nie istnieje metoda, która może wypełnić tę przestrzeń, ale raczej na tym, że gdy ludzie podchodzą do rozumowania, wolą na przykład zastosować uczenie maszynowe.

Podsumowując to wyjaśnienie, jest to pełna lista technologii zawartych w ich własnych definicjach:

  • Robotic Process Automation (RPA): technologia, która wyodrębnia listę reguł i działań do wykonania, obserwując użytkownika wykonującego określone zadanie;
  • Systemy eksperckie: program komputerowy, który ma sztywne reguły naśladujące ludzki proces decyzyjny. Systemy rozmyte są szczególnym przykładem systemów opartych na regułach, które odwzorowują zmienne na kontinuum wartości od 0 do 1, w przeciwieństwie do tradycyjnej logiki cyfrowej, która daje wynik 0/1;
  • Wizja komputerowa (CV): metody pozyskiwania i rozpoznawania obrazów cyfrowych (zwykle podzielone na rozpoznawanie działań, rozpoznawanie obrazów i widzenie maszynowe);
  • Przetwarzanie języka naturalnego (NLP): podpola, która obsługuje dane języka naturalnego (trzy główne bloki należą do tego pola, tj. Rozumienie języka, generowanie języka i tłumaczenie maszynowe);
  • Sieci neuronowe (NN lub ANN): klasa algorytmów luźno modelowana na podstawie struktury neuronalnej mózgu człowieka / zwierzęcia, która poprawia jej działanie bez wyraźnego pouczenia, jak to zrobić. Dwoma głównymi i dobrze znanymi podklasami NN są Deep Learning (sieć neuronowa z wieloma warstwami) i Generative Adversarial Networks (GAN - dwie sieci, które się szkolą);
  • Systemy autonomiczne: subpole leżące na przecięciu robotyki z systemami inteligentnymi (np. Inteligentna percepcja, zręczna manipulacja obiektami, sterowanie robotem na podstawie planu itp.);
  • Distributed Artificial Intelligence (DAI): klasa technologii, które rozwiązują problemy, dystrybuując je do autonomicznych „agentów”, które oddziałują na siebie. Systemy wieloagentowe (MAS), modelowanie oparte na agentach (ABM) i inteligencja roju to trzy przydatne specyfikacje tego podzbioru, w których zachowania zbiorowe powstają w wyniku interakcji zdecentralizowanych samoorganizujących się agentów;
  • Affective Computing: podpola zajmująca się rozpoznawaniem, interpretacją i symulacją emocji;
  • Algorytmy ewolucyjne (EA): jest to podzbiór szerszej dziedziny informatyki zwanej obliczeniami ewolucyjnymi, która wykorzystuje mechanizmy inspirowane biologią (np. Mutacja, rozmnażanie itp.) W celu znalezienia optymalnych rozwiązań. Algorytmy genetyczne są najczęściej stosowaną podgrupą EA, które są heurystykami wyszukiwania, które podążają za naturalnym procesem selekcji w celu wybrania „najodpowiedniejszego” rozwiązania kandydującego;
  • Indukcyjne programowanie logiczne (ILP): podpole, które wykorzystuje logikę formalną do reprezentowania bazy danych faktów i formułowania hipotez wynikających z tych danych;
  • Sieci decyzyjne: to uogólnienie najbardziej znanych sieci / wnioskowania bayesowskiego, które reprezentują zestaw zmiennych i ich zależności probabilistyczne za pomocą mapy (zwanej również ukierunkowanym wykresem acyklicznym);
  • Programowanie probabilistyczne: framework, który nie zmusza cię do twardego kodowania zmiennej, ale działa raczej z modelami probabilistycznymi. Bayesian Program Synthesis (BPS) jest w pewien sposób formą programowania probabilistycznego, w którym programy bayesowskie piszą nowe programy bayesowskie (zamiast robić to ludzie, jak w szerszym podejściu do programowania probabilistycznego);
  • Ambient Intelligence (AmI): środowisko wymagające urządzeń fizycznych w środowiskach cyfrowych do wykrywania, postrzegania i reagowania świadomością kontekstu na bodziec zewnętrzny (zwykle uruchamiany przez działanie człowieka).

Aby rozwiązać konkretny problem, możesz zastosować jedno lub więcej podejść, co z kolei oznacza jedną lub więcej technologii, biorąc pod uwagę, że wiele z nich wcale się nie wyklucza, ale raczej się uzupełniają.

Wreszcie, istnieje inna istotna klasyfikacja, której nie umieściłem na powyższym wykresie (tj. Inny rodzaj analizy), ale o której należy wspomnieć ze względu na kompletność. W rzeczywistości możesz napotkać pięć różnych rodzajów analiz: analizy opisowe (co się stało); analityka diagnostyczna (dlaczego coś się stało); analizy predykcyjne (co się stanie); preskryptywne analizy (rekomendowanie działań); oraz automatyczna analiza (automatyczne podejmowanie działań). Możesz również pokusić się o to, aby w jakiś sposób sklasyfikować powyższe technologie, ale w rzeczywistości jest to klasyfikacja funkcjonalna i procesowa, a nie produktowa - innymi słowy, każda technologia w spektrum może spełniać te pięć funkcji analitycznych .

III. Wniosek

Nauczenie komputerów, jak się uczyć bez potrzeby wyraźnego programowania, jest trudnym zadaniem, które wymaga kilku technologii radzenia sobie z wieloma niuansami, i chociaż mapa nie jest idealna, jest to przynajmniej pierwsza próba zrozumienia bałaganiarski krajobraz, jak ten sztucznej inteligencji.

Doskonale zdaję sobie sprawę z tego, że pojawia się tutaj silna zasada Pareto, tj. 80% (jeśli nie więcej) obecnych wysiłków i wyników napędzanych jest przez 20% technologii przedstawionych na mapie (a mianowicie głębokie uczenie się, NLP i komputer) wizja), ale jestem też pewien, że posiadanie pełnego spektrum może pomóc badaczom, startupom i inwestorom.

Oprócz próby osadzenia i rozważenia informacji zwrotnych i komentarzy na temat pierwszej wersji, planuję zrobić dwa kolejne kroki w przyszłości: jeden tworzy warstwę dla rodzaju wyzwań, przed którymi stoi AI (np. Problemy z pamięcią i katastrofalne zapominanie, przenieść uczenie się, uczenie się na podstawie mniejszej liczby danych za pomocą takich rzeczy, jak uczenie się od zera i jednorazowe itp.) oraz jaką technologię można zastosować, aby rozwiązać ten konkretny problem. Po drugie, próbujemy zastosować soczewki, aby spojrzeć na różne technologie, a nie na problemy, które rozwiązują, ale na te, które tworzą (np. Problemy etyczne, problemy wymagające dużej ilości danych, czarna skrzynka i problem wyjaśnialności itp.).

Jeśli masz jakieś uwagi na temat ulepszenia istniejącej pracy lub sugestie dotyczące osadzenia tych dwóch dodatkowych kroków, skontaktuj się z nami!

A jeśli jesteś firmą współpracującą z którąkolwiek z wyżej wymienionych technologii, chciałbym usłyszeć od ciebie więcej.

Ujawnienie: Mapa wiedzy AI została opracowana we współpracy ze strategicznym doradcą ds. Innowacji Axilo, na potrzeby działań na ich platformie Chôra.

Bibliografia

Agrawal, A., Gans, J., Goldfarb, A. (2018). „Maszyny prognostyczne: prosta ekonomia sztucznej inteligencji”. Harvard Business Review Press.

Domingos, P. (2015). „Mistrzowski algorytm: jak poszukiwanie najlepszej maszyny uczenia się przerodzi nasz świat”. New York: Basic Books.