Plusy i minusy wykorzystania sztucznej inteligencji w zarządzaniu. Sztuczna inteligencja: zalety i wady

24.09.2019

Temat sztucznej inteligencji w 2017 roku stał się jednym z najbardziej atrakcyjnych do dyskusji. Wśród uczestników rynku IT było tak wielu komentatorów, a komentarze były tak ciekawe i szczegółowe, że w ostatnim numerze CRN/RE za rok 2017 nie udało nam się omówić wszystkich zaproponowanych do dyskusji zagadnień. Dziś porozmawiamy o zaletach i wadach rozwiązań AI oraz trudnościach w ich wdrożeniu.

Jakie są główne zalety rozwiązań nazywanych dziś „systemami sztucznej inteligencji”?

Kierownik Projektu ST Smartmerch, System Technologies Group, Maksym Archipienkow Jestem pewien, że „plusy wynikają z oczekiwań”.

„Sieci neuronowe, w przeciwieństwie do ludzi, nie mają emocji i nie męczą się” – mówi Arkhipenkov. - Czynnik ludzki oraz wszelkie błędy i problemy związane z charakterem człowieka i jego niską zdolnością do pracy są wykluczone - oczywiście w odniesieniu do maszyny. Sieci neuronowe nie mają progu wydajności: jeśli ktoś może sprawdzić np. 100 części pod kątem jakości w ciągu dnia, to system sprawdzi ich tyle, na ile pozwolą możliwości serwera. System jest łatwiejszy do skalowania: w tym samym zakładzie trudno umieścić 100 osób do kontroli jakości w jednym pomieszczeniu.

Dyrektor Marketingu CDNvideo Angelina Reszyna uważa też, że główne zalety systemów AI "w szybkości przetwarzania danych, możliwości trenowania systemu i oszczędności na zasobach ludzkich".

prezes Cezurity Aleksiej Chaley podkreśla, że ​​produkty oparte na sztucznej inteligencji są w stanie wykonywać zadania na jakościowo różnym poziomie: klasyfikować obrazy, tłumaczyć tekst, klasyfikować pliki itp.”, zauważa Chaley.

„Głównymi zaletami obecnie istniejących rozwiązań jest możliwość automatyzacji wielu obszarów działania przy jednoczesnym zminimalizowaniu udziału człowieka w tym oraz rozszerzenie obszarów, w których możliwe jest wykorzystanie oprogramowania zamiast pracy ludzkiej” – mówi założyciel firmy hostingowej King Servers Władimir Fomenko. - W tej chwili sztuczna inteligencja jest szczególnie dobra w analizowaniu dużych ilości danych, gdzie jednej osobie zajęłoby to zbyt dużo czasu, a konwencjonalne programy, które nie korzystają z uczenia maszynowego, nie byłyby w stanie osiągnąć wymaganej dokładności”.

Zgadzam się z kolegami i dyrektorem działu korporacyjnych systemów informatycznych ALP Group Swietłana Gacakowa:„Dzięki technologiom sztucznej inteligencji znacznie zwiększa się szybkość i stopień automatyzacji przetwarzania dużych ilości informacji – przy jednoczesnej poprawie jakości i możliwości produkcyjnych. Przy odpowiednim nastawieniu do nowych technologii zwiększa się kompletność wykorzystania danych, a także efektywność i jakość decyzji zarządczych.

Według CEO Hawk House Integration Aleksandra Iwlew,„Technologia sztucznej inteligencji najlepiej nadaje się do optymalizacji różnego rodzaju czynności mechanicznych, automatyzacji rutynowych operacji i wykorzystywania jej w niebezpiecznych branżach”. „Właściwe wykorzystanie robotyki na liniach przenośnikowych pozwala przejść do pracy non-stop, optymalizuje koszty przedsiębiorstwa, poprawia jakość produktów, ale wymaga poważnego i długiego etapu uruchomienia”, mówi Ivlev. - Niewiele firm stać na inwestowanie dużych pieniędzy w takie technologie, choć w przyszłości pozwoli to znacząco obniżyć koszty produkcji. Podobnie jest z technologiami uczenia maszynowego: dla każdego projektu należy analizować dużą próbkę danych, w dodatku za pomocą indywidualnych algorytmów, co wymaga czasu i zasobów. Ale po wprowadzeniu automatyzacji te operacje będą odbywały się szybciej i taniej, niż może to zrobić człowiek”.

„Zacznijmy od tego, że systemy sztucznej inteligencji rozwijane są po to, by poprawiać efektywność w najszerszym tego słowa znaczeniu” – wspomina Dyrektor ds. Aplikacji Biznesowych w CROC Maksym Andriejew. - Aby wdrożyć nowe pomysły i podejścia, firmy często muszą wziąć pod uwagę ogromną liczbę czynników, o których zwykły człowiek po prostu nie może pamiętać. Jedną z głównych zalet sztucznej inteligencji jest możliwość uwzględnienia tak zróżnicowanej liczby czynników w czasie rzeczywistym. Ponadto, w przeciwieństwie do człowieka, algorytm nie może się zmęczyć ani celowo zmienić niektórych informacji. Oznacza to, że wprowadzając sztuczną inteligencję, firma minimalizuje możliwość wystąpienia błędów spowodowanych tymi czynnikami. Ale jest w tym wada: osoba może wziąć pod uwagę dodatkowe szczegóły, podczas gdy źle dostrojony algorytm będzie nadal działał niepoprawnie. Kolejnym plusem systemów sztucznej inteligencji jest powtarzalność. Weźmy jako przykład dowolny proces biznesowy w firmie, którego szkolenie zajmuje pracownikowi rok. Dlatego jeśli potrzebujemy 10 nowych pracowników, to poświęcimy 10 osobolat na ich szkolenie. Z punktu widzenia algorytmów wszystko jest prostsze, a koszt skalowania rozwiązania znacznie niższy.”

Szef Rozwoju i Wdrożeń Rozwiązań AV w Auvix Aleksander Piwowarow uważa, że ​​najbardziej oczywiste i powierzchowne plusy to zwiększona wydajność, mniej rutynowych operacji i większa łatwość użytkowania. „Jeśli weźmiemy na przykład tak dość prostą rzecz, jak system do rezerwacji i wyświetlania harmonogramu sal konferencyjnych, to kiedy zaczniemy go dokładnie studiować, dostrzeżemy wiele możliwości zwiększenia efektywności jego użytkowania, skrócenia przestojów i tak dalej, używając „inteligentnych algorytmów”, podkreśla Pivovarov.

„Głównym zadaniem transformacji cyfrowej, której jednym z narzędzi jest sztuczna inteligencja, jest sprawienie, by procesy przebiegały szybciej i wydajniej, firmy wydawały mniej, a zarabiały więcej” — mówi CEO ABBYY Russia Dmitrij Szuszkin. - Na przykład jeden z naszych klientów z sektora bankowego zautomatyzował przetwarzanie dokumentów do otwarcia konta dla osób prawnych. Inteligentny system sam typuje i rozpoznaje dokumenty, a następnie wydobywa z nich informacje i ładuje je do wymaganych pól systemu bankowego. W efekcie wprowadzanie danych z dokumentów zajmuje mniej niż 10 minut, 2,5 razy szybciej niż ręcznie. Bank wyliczył, że w ciągu 3 lat zaoszczędzi ponad 270 mln rubli na przetwarzaniu dokumentów.

Według menedżera ds. rozwoju biznesu firmy Plantronics Aleksiej Bogaczew,„Jedną z głównych zalet systemów AI jest możliwość pozyskiwania nowych materiałów, które po prostu nie są dla nas dostępne. Ponieważ zwykły człowiek wyciąga wnioski tylko na podstawie swojej wiedzy, tak tutaj dostajemy głębszą analizę, która może prowadzić do zupełnie nieoczekiwanych wniosków. W ten sposób można uzyskać przełom w określonym obszarze”.

„Człowiek jest przyzwyczajony do uważania się za koronę ewolucji, ale regularnie napotykamy ograniczenia” — mówi dyrektor generalny FreshDoc.ru Document Constructor. Mikołaj Patskow. - Na przykład samoloty hipersoniczne lecą z prędkością 10 razy większą niż prędkość dźwięku, pilot-człowiek po prostu nie jest w stanie sterować taką maszyną bez pomocy inteligentnej elektroniki. Ludzkie reakcje i szybkość podejmowania decyzji to za mało, aby pracować z takimi prędkościami. Sztuczna inteligencja pomaga nam przekroczyć te ograniczenia. AI pozwala ludziom szybciej reagować, chroni przed popełnianiem błędów, uwalnia od rutynowych działań i decyzji. Takie systemy mogą skutecznie zastąpić człowieka-eksperta w transporcie, prognozowaniu, handlu na giełdzie, doradztwie i redagowaniu dokumentów. Zastosowanie „inteligentnych rozwiązań” wpływa też na ostateczny koszt produktu: wszak „roboty” nie muszą płacić pensji, nie chorują i nie wyjeżdżają na urlopy, a także nie podlegają spadkowi wydajności . Widzimy ogromny potencjał w rozwoju inteligentnych rozwiązań dla szerokiego zakresu zadań. Udział w rozwoju tego obszaru może pozwolić rosyjskim przedsiębiorcom IT na odwrócenie rynku i „jechanie” na fali informacyjnej rozwoju człowieka”.

Według dyrektora ds. rozwoju biznesu i marketingu firmy Konica Minolta Business Solutions Russia Żamilia Kamieniewa wszystko oczywiście zależy od klasy rozwiązań. Ale w większości mają one na celu optymalizację i automatyzację procesów, oszczędzanie zasobów - zarówno materialnych, jak i niematerialnych, czasu pracy i osobistego. „Mówiąc prościej, ich zadaniem jest ułatwienie nam życia” – podsumowuje Kameneva.

„Po pierwsze, takie systemy pozwalają nam odkryć to, co jest ukryte przed ludzkim umysłem” – mówi Navicon International Business Development Director Ilja Narodicki. - Bez względu na to, jak dobre są narzędzia BI danej osoby, w niektórych przypadkach uczenie maszynowe jest niezbędne: na przykład, jeśli potrzebujesz przetworzyć statystyki operacji na rachunkach bankowych 1 miliona klientów w ciągu 10 lat. Już dziś maszynowe poszukiwanie ukrytych wzorców, które nie są oczywiste dla człowieka, pozwala wielu firmom budować strategię biznesową i tworzyć systemy wspomagania decyzji zarządczych. Po drugie, technologie sztucznej inteligencji znacząco podnoszą efektywność wszelkiego rodzaju komunikacji z konsumentami. Innowacyjne technologie, które mogą rozumieć i analizować wiadomości tekstowe i głosowe, pomagają skrócić czas przetwarzania przychodzących żądań i szybciej niż dotychczas odpowiadać na żądania klientów. Po trzecie, takie systemy mogą odciążyć pracowników firmy od wykonywania rutynowych czynności, co oznacza uwolnienie ich czasu na rozwiązywanie ważnych strategicznie problemów. Czas poświęcony na rozwiązywanie rutynowych zadań mógłby zostać wykorzystany na rozwiązywanie kreatywnych problemów”.

„Takie systemy umożliwiają podejmowanie decyzji za osobę w obszarach, w których jest to dozwolone” – mówi CEO Atak Killer. Rustem Khairetdinov. „Podczas gdy wcześniej zautomatyzowane systemy podejmowały decyzje tylko w ramach dobrze zdefiniowanych scenariuszy „jeżeli-to”, dzisiejsze i jutrzejsze systemy będą w stanie podejmować decyzje w niejasno określonych warunkach i przy niewystarczających informacjach, co wcześniej mogło być podejmowane tylko przez osoba."

Dyrektor rozwoju Acronis Siergiej Ułasen zauważa też: systemy sztucznej inteligencji rozwiązują wiele zadań, które wcześniej wymagały zaangażowania człowieka. Jednocześnie często działają szybciej i mają przewidywalny wynik oraz jakość pracy.

„Technologie AI naprawdę działają i pomagają usprawniać procesy biznesowe, uwalniając przynajmniej częściowo ludzki intelekt od rutyny kreatywności i tworzenia czegoś nowego” – podkreśla prezes Preferentum (Grupa IT) Dmitrij Romanow.- Łatwo im ocenić efekt ekonomiczny. W przypadku dużej klasy systemów wykorzystujących metody uczenia maszynowego ich zdolność do stawania się „mądrzejszymi” podczas pracy jest zdecydowanym plusem.

Zdaniem dyrektora marketingu firmy Vocord Siergiej Szczerbina, główne zalety to to, że sztuczna inteligencja dokonuje trafnych prognoz na podstawie „chaotycznych” faktów, źle ustrukturyzowanych, niesklasyfikowanych lub niekompletnych informacji. „Opierając się na nich, uzyskujemy zasadniczo nowy poziom dokładności i szybkości podejmowania decyzji tam, gdzie proste, liniowe reguły nie działają” — kontynuuje Shcherbina. - Ogromne tablice danych są stale uzupełniane, ale same nie są w stanie rozwiązać problemów, do ich analizy potrzebna jest tylko sztuczna inteligencja. Znamy już wiele przykładów udanego zastosowania AI w medycynie, w analizie globalnych i lokalnych procesów gospodarczych i społecznych, w rozwiązywaniu problemów inżynierskich i technicznych, w podejmowaniu decyzji inwestycyjnych, w systemach bezpieczeństwa. Innowacje w zakresie AI pozwolą zautomatyzować zasadniczo szerszy zakres procesów biznesowych. Tym samym w obszarze monitoringu wizyjnego i bezpieczeństwa po raz pierwszy będzie można zagwarantować, bez udziału operatora, całodobowe wykrywanie potencjalnie niebezpiecznych zdarzeń, identyfikowanie osób poszukiwanych. Istnieje już wiele przykładów udanych zastosowań sztucznej inteligencji”.

Główny plus, według współzałożyciela serwisu shikari.do Wadim Szemarowa, jest to, że systemy sztucznej inteligencji można wyszkolić. „Na przykład, jeśli chcemy, aby system był w stanie odróżnić wiadomości ludzi, w których chcą coś kupić, od wiadomości, w których chcą coś sprzedać, lub określić temat wiadomości, nie musimy sporządzać szczegółowej listy słów i wyrażenia wyrażające intencje, nastrój, temat itp. Wybieramy wiele przykładowych tekstów na potrzebne nam tematy, „trenujemy” system na tych przykładach, a potem sam zaczyna rozumieć istotę nieznanych tekstów” – mówi Shemarov.

Szef Centrum Badawczego Robotyki i Regulacji AI, Senior Associate w Dentons Andriej Nieznamow uważa również, że możliwość uczenia się (uczenie nadzorowane lub samodoskonalenie) można nazwać głównym plusem technologii, które potocznie nazywane są „AI”.

Jakie są trudności we wdrażaniu tych systemów?

Podsumowując, główne zalety technologii AI, według ekspertów rynku IT, to osiąganie nowych poziomów produktywności, automatyzacji, wydajności, analizy, uczenia się, podejmowania decyzji, przewidywalności i uczenia się. Ponieważ jednak jest to nowy kierunek, eksperci widzą w nim jeszcze więcej trudności niż korzyści. Dość powiedzieć, że prawie każdy mówca nazwał swoją trudność.

„To zupełnie nowy obszar. Każde zadanie, które jest teraz rozwiązywane, to RnD w najczystszej postaci: trzeba zdefiniować, usystematyzować, wymyślić rozwiązanie, wdrożyć to rozwiązanie i wdrożyć - podkreśla Maxim Arkhipenkov. „To proces twórczy, który wymaga wysokiego poziomu naukowego i eksperckiego zarówno bezpośrednio w obszarze zastosowania tego rozwiązania – czy to będzie FMCG, kosmiczna, medycyna, czy też w zakresie wdrażania systemów sieci neuronowych.”

Według Aleksandra Pivovarova trudność polega na „znalezieniu równowagi między szumem a rzeczywistą użytecznością, trudnością uczynienia tych technologii niewidocznymi dla konsumenta oraz brakiem błędów w ich działaniu”.

Dmitrij Karbasow uważa, że ​​„kluczowa trudność tych projektów wiąże się z nieprzewidywalnością wyniku”. „Załóżmy, że kupując system CRM, klient jasno rozumie, jaką funkcjonalność oferuje mu ten system i jak będzie z tej funkcjonalności korzystał” — mówi Karbasow. - Są to procesy, formularze wprowadzania danych, raportowanie itp. Przy wdrażaniu systemu AI bardzo trudno jest przewidzieć wynik bez wdrożenia projektu, ujawnienie technologii i algorytmów praktycznie nic nie powie osobie bez wykształcenia matematycznego i praktyczne doświadczenie, a wśród klientów jest tylko kilku top managerów z takim zapleczem. Pomaga wdrożenie projektów pilotażowych, których metodologię debugowaliśmy i którą stosujemy w 99% projektów.”

„Z pewnością jest wiele trudności”, zastanawia się Maxim Andreev. - Głównym być może jest brak wystarczająco dużych zbiorów danych do trenowania sztucznej inteligencji. Do tego potrzebne są dane historyczne. Wyjaśnię, co mam na myśli: dla jednej dużej firmy wykonaliśmy prognozę sprzedaży usług transportowych - przewidzieliśmy wagę ładunku i kierunek transportu. Nie mogliśmy w żaden sposób osiągnąć dobrej trafności prognozy, zaczęliśmy się zastanawiać, o co chodzi i okazało się, że w danych historycznych, które były przechowywane w firmie, gdzieś waga była brana pod uwagę z opakowaniem, a gdzieś bez. Jednocześnie po prostu nie ma znaku, za pomocą którego można by śledzić ten czynnik. Oznacza to, że kiedyś w przeszłości te informacje nie odgrywały żadnej roli, ale teraz wszystko się zmieniło. Dlatego tak ważne jest zebranie wszystkich danych, które można zebrać „na żądanie”. Technologie gromadzenia i przetwarzania danych nieustannie ewoluują, a firmy już teraz mogą wdrażać technologie Data Lake, które stają się doskonałą platformą do szkolenia sztucznej inteligencji. Inną trudnością jest to, że same algorytmy są wciąż dość małe. Dlatego przed wprowadzeniem firmy konieczne jest przeprowadzenie badań. Dzięki temu możemy dowiedzieć się, czy w określonych warunkach, na konkretnych danych i dla konkretnych procesów biznesowych możliwe będzie zbudowanie AI, której koszt nie przekroczy wartości, jaką daje ona firmie.”

Anna Plemyashova uważa, że ​​głównym problemem jest całkowity brak lub niedostateczna ilość danych do budowy dokładnych modeli. „Dla przedsiębiorstw przemysłowych, gdzie takie rozwiązania wymagają znacznych inwestycji w infrastrukturę, jest to efekt ekonomiczny opóźniony w czasie: najpierw trzeba zacząć zbierać i gromadzić dane, a potem można przejść do rozwiązań wykorzystujących inteligentne systemy. Przejściowe rozwiązania BI i wizualizacja danych w czasie rzeczywistym pozwalają przybliżyć korzyści ekonomiczne – mówi Plemyashova. - Kolejną trudnością jest konieczność restrukturyzacji procesu biznesowego przy wprowadzaniu inteligentnych systemów. Czyli nie wystarczy kupić takie rozwiązanie i włożyć jak kwiatek do wazonu czy aplikację na komputer. Konieczne jest, aby ta decyzja była przyjazna procesowi biznesowemu: tworzyć, rekonfigurować, a nawet anulować niektóre operacje, przekwalifikowywać ludzi, optymalizować personel.”

„Te systemy są oparte na danych i dużych zbiorach danych” – przypomina Sergey Ulasen. - Do uczenia modeli potrzebne są znaczne zasoby obliczeniowe, a do przechowywania dużych zbiorów danych wymagana jest odpowiednia infrastruktura. Dlatego wdrożenie systemów AI wymaga znacznych inwestycji w sprzęt.
Z kolei gromadzenie i przygotowywanie danych wymaga dużego wysiłku organizacyjnego, a często opracowania nowego oprogramowania wspomagającego analizę danych.”

Svetlana Gatsakova uważa, że ​​trudności polegają przede wszystkim na „niedostatecznym zwróceniu uwagi na granice zastosowania każdej konkretnej technologii sztucznej inteligencji, na pułapki”. A także „w słabej interpretowalności wyników (wszak np. sieć neuronowa nie wyjaśnia swoich wniosków), w trudnościach w tworzeniu jednorodnych zbiorów danych do uczenia i testowania modeli”. Kolejną trudnością jest „ślepa wiara w dane i brak uwagi na intuicję menedżera oraz te czynniki, które trudno zmierzyć i zintegrować z procesami DDM*”. Na to, według Gatsakowej, nakładają się „złożoności charakterystyczne dla organizacji rosyjskich”. „Jest to mała dostępność rzetelnych danych o świecie zewnętrznym organizacji i wynikające z tego ryzyko izolacji od informacji wewnętrznych, czyli przekształcenia się w swoistą organizację autystyczną. Ponadto jest to niewielka (w porównaniu z czołowymi firmami zachodnimi) penetracja kultury DDM, ograniczona głównie do absolwentów zachodnich szkół biznesu.

„AI pomaga zautomatyzować wiele procesów i zastąpić nisko wykwalifikowanych pracowników, ale jednocześnie wymaga kontroli od programistów, których koszty pracy są oczywiście wyższe” – mówi Angelina Reshina. „Uczenie się systemu musi być kontrolowane, aby nie wykraczało poza dopuszczalne granice”.

Według Sergeya Shcherbina trudności tkwią w przestarzałym sprzęcie i słabej infrastrukturze, starszych platformach sprzętowych i programowych, które w trudnych ekonomicznie czasach i przy ograniczonych budżetach niewiele osób odważy się zmienić. „Czynnik ludzki też ma wpływ” – podkreśla Shcherbina. - Tu brakuje wykwalifikowanej kadry i niewystarczający poziom kompetencji, czyli konserwatyzm liderów. Co więcej, nie wszyscy rozumieją, dlaczego jest to konieczne i po co wydawać pieniądze na modernizację, kiedy „po staremu” wszystko i tak wydaje się działać”.

„Wśród trudności w budowaniu systemów AI należy przede wszystkim zwrócić uwagę na brak personelu”, zauważa Andrey Sykulev. - Specjalistów jest bardzo mało, bo wymagania są tu bardzo wysokie: oprócz umiejętności programowania trzeba opanować dość skomplikowany aparat matematyczny oraz mieć wiedzę i doświadczenie w przedmiotowych dziedzinach. Dość często „przeszkodą” jest słaba jakość danych i brak infrastruktury do ich integracji. Kolejną ważną kwestią jest bezpieczeństwo danych, ponieważ dane skonsolidowane na potrzeby działania AI mogą stać się celem ataku lub, delikatnie mówiąc, zostać wykorzystane do innych celów”.

Alexey Bogachev uważa również, że jedną z głównych trudności jest personel. „Jak w przypadku wszystkiego, co nowe, pytanie brzmi, jak z tym pracować. Ponieważ zastosowanie dowolnej technologii wymaga wykwalifikowanych specjalistów, a jest to bardzo młody kierunek, dlatego dość trudno jest znaleźć ludzi, którzy by to zrozumieli.”

Problem kadrowy ma drugą stronę. „Główna trudność polega na tym, że niewielu menedżerów najwyższego szczebla przedsiębiorstw rozumie, czym jest sztuczna inteligencja i jakie jest jej praktyczne zastosowanie” — wspomina Dmitrij Karbasow. - Tak, prawie wszyscy słyszeli o AI, wszyscy wiedzą, że AI pomaga optymalizować procesy biznesowe, obniżać koszty, usprawniać niektóre funkcje (logistyka, analiza zachowań konsumenckich, prognozowanie obciążenia produkcji i wielkości sprzedaży itp.). Ale niewielu klientów rozumie, że aby sztuczna inteligencja działała tak, jak powinna, konieczne jest sformułowanie zadania biznesowego i kryteriów jego sukcesu w aspekcie biznesowym. Innymi słowy, klient musi zrozumieć, które z parametrów należy zlecić analizie systemu AI i jak postępować z otrzymanymi danymi z punktu widzenia podejmowania decyzji zarządczych.”

„Jako główną trudność we wdrażaniu takich rozwiązań można wyróżnić dwa czynniki: ludzki i technologiczny”, mówi Nikołaj Patskow. - Pierwszym jest problem małej liczby ekspertów zdolnych do interakcji z systemami sztucznej inteligencji. Problem ten jest sukcesywnie rozwiązywany, rynek docenia wartość takich specjalistów i coraz więcej pracowników opanowuje umiejętności niezbędne na rozwijającym się rynku. Czynnik technologiczny można przypisać brakowi mocy obliczeniowej: teraz ponownie rozwijamy pomysły, które będziemy mogli zrealizować dopiero wraz z pojawieniem się potężniejszych maszyn. Biorąc jednak pod uwagę prognozowany wzrost produktywności (wzrost 1000-krotny w ciągu najbliższych 10 lat), uważamy, że ewolucyjny rozwój technologii przynajmniej nie zwolni.

Według Alekseya Chaleya istnieją trzy główne trudności: „Pierwszym są ludzie . Na świecie jest bardzo mało osób, które są w stanie pracować w obszarach przygranicznych, które jednocześnie rozumieją dziedzinę (w naszym przypadku analizę wirusów), są dobrze zorientowane w matematyce, statystyce i uczeniu maszynowym, a także wiedzą, jak programować choć trochę. Drugi to dane do treningu . Dane te trzeba gdzieś zabrać, a następnie oznaczyć. Dane są bardzo trudne do zdobycia. Nawiasem mówiąc, przez to postęp w rozwoju sztucznej inteligencji jest utrudniony, ponieważ badacze nie mają możliwości eksperymentowania z modelami. Nie wystarczy być tylko utalentowanym analitykiem i programistą – bez danych nie da się stworzyć niczego w dziedzinie AI. A trzeci to koszt infrastruktury. Początkowa inwestycja w infrastrukturę może być dość znacząca”.

„Aby sztuczna inteligencja dobrze rozwiązywała problemy biznesowe, technologia musi być „dostosowana” – uważa Dmitrij Szuszkin. - Każda maszyna, podobnie jak człowiek, musi być przeszkolona na rzeczywistych danych, aby podejmować trafne decyzje. Aby uczyć takiego systemu, trzeba najpierw zebrać lub zsyntetyzować dużą ilość dobrze oznakowanych danych - na przykład informacji o finansach, produkcji, obsłudze klienta i tak dalej. W dużym biznesie łatwiej jest takie dane przygotować i zebrać, ponieważ wiele firm korzysta już z systemów strumieniowego wprowadzania danych z różnego rodzaju dokumentacji, ta informacja korporacyjna jest usprawniona i uporządkowana. Tworzenie takich macierzy w średnich i małych firmach jest wciąż mniej dostępne.”

Zhamilya Kameneva jako jedną z głównych trudności wymienia wysokie koszty takich rozwiązań, długość projektów i długi zwrot z inwestycji (minimum 2-5 lat). „Po drugie, jak każde nowe narzędzie, potrzeba długiej i żmudnej pracy, aby stworzyć rynek dla konsumentów tych technologii”, kontynuuje Kameneva. „Dodatkowo zwracam uwagę na brak wysoko wykwalifikowanej kadry na rynku – zdecydowana większość zagranicznych dostawców i tylko nieliczne instytucje naukowe zajmują się systemami sztucznej inteligencji w naszym kraju.”

Według Dmitrija Romanowa główna trudność, co zaskakujące, ma charakter psychologiczny: „Ludzie są przyzwyczajeni do oczekiwania absolutnej dokładności od komputera. Systemy AI mają wyjście probabilistyczne. Mogą popełniać błędy, udzielać błędnych odpowiedzi iw tym są jak ludzie. Użytkownicy czasami przeceniają moc inteligentnych technologii”.

Vladimir Fomenko jest przekonany, że za kilka lat, gdy ta technologia przestanie być nowa i stanie się bardziej zrozumiała, nie będzie już większych trudności z jej wdrożeniem. „Będą systemy lub programy, które będą mogły tworzyć systemy lub programy AI”.

Ale Rustem Khairetdinov uważa, że ​​nie ma trudności z wdrożeniem - „zarówno aparat matematyczny, jak i algorytmy zaimplementowane w oprogramowaniu, a także moc obliczeniowa są teraz dostępne niemal „od ręki” lub „z chmury”. „Trudność polega raczej na sformułowaniu problemu, zbudowaniu modelu do analizy. Wkrótce zmierzymy się z faktem, że na czystych matematyków, jak się ich obecnie nazywa data science, będzie mniej poszukiwań niż specjalistów z innych dziedzin (lekarze, technolodzy, specjaliści od bezpieczeństwa, lingwiści itp.) ze znajomością zasad działania maszyn i głębokie „uczenie się” ” - podkreśla Khairetdinov.

* DDM (ang. Digital Diagnostics Monitoring) – funkcja cyfrowej kontroli parametrów pracy transceivera SFP (a także SFP+ i XFP). Pozwala na monitorowanie w czasie rzeczywistym takich parametrów jak: napięcie, temperatura modułu, prąd polaryzacji i moc lasera (TX), poziom odbieranego sygnału (RX).

Kierownik Projektu ST Smartmerch, System Technologies Group, Maksym Archipienkow Jestem pewien, że „plusy wynikają z oczekiwań”.

„Sieci neuronowe, w przeciwieństwie do ludzi, nie mają emocji i nie męczą się” – mówi Arkhipenkov. - Czynnik ludzki oraz wszelkie błędy i problemy związane z charakterem człowieka i jego niską zdolnością do pracy są wykluczone - oczywiście w odniesieniu do maszyny. Sieci neuronowe nie mają progu wydajności: jeśli ktoś może sprawdzić np. 100 części pod kątem jakości w ciągu dnia, to system sprawdzi ich tyle, na ile pozwolą możliwości serwera. System jest łatwiejszy do skalowania: w tym samym zakładzie trudno umieścić 100 osób do kontroli jakości w jednym pomieszczeniu.

Dyrektor Marketingu CDNvideo Angelina Reszyna uważa też, że główne zalety systemów AI "w szybkości przetwarzania danych, możliwości trenowania systemu i oszczędności na zasobach ludzkich".

prezes Cezurity Aleksiej Chaley podkreśla, że ​​produkty oparte na sztucznej inteligencji są w stanie wykonywać zadania na jakościowo różnym poziomie: klasyfikować obrazy, tłumaczyć tekst, klasyfikować pliki itp.”, zauważa Chaley.

„Głównymi zaletami obecnie istniejących rozwiązań jest możliwość automatyzacji wielu obszarów działania przy jednoczesnym zminimalizowaniu udziału człowieka w tym oraz rozszerzenie obszarów, w których możliwe jest wykorzystanie oprogramowania zamiast pracy ludzkiej” – mówi założyciel firmy hostingowej King Servers Władimir Fomenko. „W tej chwili sztuczna inteligencja jest szczególnie dobra w analizowaniu dużych ilości danych, gdzie człowiekowi zajęłoby to zbyt dużo czasu, a konwencjonalne programy, które nie korzystają z uczenia maszynowego, nie byłyby w stanie osiągnąć wymaganej dokładności”.

Zgadzam się z kolegami i dyrektorem działu korporacyjnych systemów informatycznych ALP Group Swietłana Gacakowa: „Dzięki technologiom sztucznej inteligencji znacznie zwiększa się szybkość i stopień automatyzacji przetwarzania dużych ilości informacji – przy jednoczesnej poprawie jakości i możliwości produkcyjnych. Przy odpowiednim nastawieniu do nowych technologii zwiększa się kompletność wykorzystania danych, a także efektywność i jakość decyzji zarządczych.

Według CEO Hawk House Integration Aleksandra Iwlewska„Technologia sztucznej inteligencji najlepiej nadaje się do optymalizacji różnego rodzaju czynności mechanicznych, automatyzacji rutynowych operacji i wykorzystywania jej w niebezpiecznych gałęziach przemysłu”. „Właściwe wykorzystanie robotyki na liniach przenośnikowych pozwala przejść do pracy non-stop, optymalizuje koszty przedsiębiorstwa, poprawia jakość produktów, ale wymaga poważnego i długiego etapu uruchomienia”, mówi Ivlev. - Niewiele firm stać na inwestowanie dużych pieniędzy w takie technologie, choć w przyszłości pozwoli to znacząco obniżyć koszty produkcji. Podobnie jest z technologiami uczenia maszynowego: dla każdego projektu należy analizować dużą próbkę danych, w dodatku za pomocą indywidualnych algorytmów, co wymaga czasu i zasobów. Ale po wprowadzeniu automatyzacji te operacje będą odbywały się szybciej i taniej, niż może to zrobić człowiek”.

„Zacznijmy od tego, że systemy sztucznej inteligencji rozwijane są po to, by poprawiać efektywność w najszerszym tego słowa znaczeniu” – wspomina Dyrektor ds. Aplikacji Biznesowych w CROC Maksym Andriejew. - Aby wdrożyć nowe pomysły, podejścia, firmy często muszą wziąć pod uwagę ogromną liczbę czynników, o których zwykły człowiek po prostu nie może pamiętać. Jedną z głównych zalet sztucznej inteligencji jest możliwość uwzględnienia tak zróżnicowanej liczby czynników w czasie rzeczywistym. Ponadto, w przeciwieństwie do człowieka, algorytm nie może się zmęczyć ani celowo zmienić niektórych informacji. Oznacza to, że wprowadzając sztuczną inteligencję, firma minimalizuje możliwość wystąpienia błędów spowodowanych tymi czynnikami. Ale jest w tym wada: osoba może wziąć pod uwagę dodatkowe szczegóły, podczas gdy źle dostrojony algorytm będzie nadal działał niepoprawnie. Kolejnym plusem systemów sztucznej inteligencji jest powtarzalność. Weźmy jako przykład dowolny proces biznesowy w firmie, którego szkolenie zajmuje pracownikowi rok. Dlatego jeśli potrzebujemy 10 nowych pracowników, to poświęcimy 10 osobolat na ich szkolenie. Z punktu widzenia algorytmów wszystko jest prostsze, a koszt skalowania rozwiązania znacznie niższy.”

Szef Rozwoju i Wdrożeń Rozwiązań AV w Auvix Aleksander Piwowarow uważa, że ​​najbardziej oczywiste i powierzchowne plusy to zwiększona wydajność, mniej rutynowych operacji i większa łatwość użytkowania. „Jeśli weźmiemy na przykład tak dość prostą rzecz, jak system do rezerwacji i wyświetlania harmonogramu sal konferencyjnych, to kiedy zaczniemy go dokładnie studiować, dostrzeżemy wiele możliwości zwiększenia efektywności jego użytkowania, skrócenia przestojów i tak dalej, używając „inteligentnych algorytmów”, podkreśla Pivovarov.

„Głównym zadaniem transformacji cyfrowej, której jednym z narzędzi jest sztuczna inteligencja, jest sprawienie, by procesy przebiegały szybciej i wydajniej, firmy wydawały mniej, a zarabiały więcej” — mówi CEO ABBYY Russia Dmitrij Szuszkin. - Na przykład jeden z naszych klientów z sektora bankowego zautomatyzował przetwarzanie dokumentów do otwarcia konta dla osób prawnych. Inteligentny system sam typuje i rozpoznaje dokumenty, a następnie wydobywa z nich informacje i ładuje je do wymaganych pól systemu bankowego. W efekcie wprowadzanie danych z dokumentów zajmuje mniej niż 10 minut, 2,5 razy szybciej niż ręcznie. Bank wyliczył, że w ciągu 3 lat zaoszczędzi ponad 270 mln rubli na przetwarzaniu dokumentów.

Według menedżera ds. rozwoju biznesu firmy Plantronics Aleksiej Bogaczew, „jedną z głównych zalet systemów AI jest możliwość pozyskiwania nowych materiałów, które po prostu nie są dla nas dostępne. Ponieważ zwykły człowiek wyciąga wnioski tylko na podstawie swojej wiedzy, tak tutaj dostajemy głębszą analizę, która może prowadzić do zupełnie nieoczekiwanych wniosków. W ten sposób można uzyskać przełom w określonym obszarze”.

„Człowiek jest przyzwyczajony do uważania się za koronę ewolucji, ale regularnie napotykamy ograniczenia” — mówi dyrektor generalny FreshDoc.ru Document Constructor. Mikołaj Patskow. - Na przykład samoloty hipersoniczne lecą z prędkością 10 razy większą niż prędkość dźwięku, pilot-człowiek po prostu nie jest w stanie sterować taką maszyną bez pomocy inteligentnej elektroniki. Ludzkie reakcje i szybkość podejmowania decyzji to za mało, aby pracować z takimi prędkościami. Sztuczna inteligencja pomaga nam przekroczyć te ograniczenia. AI pozwala ludziom szybciej reagować, chroni przed popełnianiem błędów, uwalnia od rutynowych działań i decyzji. Takie systemy mogą skutecznie zastąpić człowieka-eksperta w transporcie, prognozowaniu, handlu na giełdzie, doradztwie i redagowaniu dokumentów. Zastosowanie „inteligentnych rozwiązań” wpływa też na ostateczny koszt produktu: wszak „roboty” nie muszą płacić pensji, nie chorują i nie wyjeżdżają na urlopy, a także nie podlegają spadkowi wydajności . Widzimy ogromny potencjał w rozwoju inteligentnych rozwiązań dla szerokiego zakresu zadań. Udział w rozwoju tego obszaru może pozwolić rosyjskim przedsiębiorcom IT na odwrócenie rynku i „jechanie” na fali informacyjnej rozwoju człowieka”.

Według dyrektora ds. rozwoju biznesu i marketingu firmy Konica Minolta Business Solutions Russia Żamilia Kamieniewa wszystko oczywiście zależy od klasy rozwiązań. Ale w większości mają one na celu optymalizację i automatyzację procesów, oszczędzanie zasobów - zarówno materialnych, jak i niematerialnych, czasu pracy i osobistego. „Mówiąc prościej, ich zadaniem jest ułatwienie nam życia” – podsumowuje Kameneva.

„Po pierwsze, takie systemy pozwalają nam odkryć to, co jest ukryte przed ludzkim umysłem” – mówi Navicon International Business Development Director Ilja Narodicki. - Bez względu na to, jak dobre są narzędzia BI danej osoby, w niektórych przypadkach uczenie maszynowe jest niezbędne: na przykład, jeśli potrzebujesz przetworzyć statystyki operacji na rachunkach bankowych 1 miliona klientów w ciągu 10 lat. Już dziś maszynowe poszukiwanie ukrytych wzorców, które nie są oczywiste dla człowieka, pozwala wielu firmom budować strategię biznesową i tworzyć systemy wspomagania decyzji zarządczych. Po drugie, technologie sztucznej inteligencji znacząco podnoszą efektywność wszelkiego rodzaju komunikacji z konsumentami. Innowacyjne technologie, które mogą rozumieć i analizować wiadomości tekstowe i głosowe, pomagają skrócić czas przetwarzania przychodzących żądań i szybciej niż dotychczas odpowiadać na żądania klientów. Po trzecie, takie systemy mogą odciążyć pracowników firmy od wykonywania rutynowych czynności, co oznacza uwolnienie ich czasu na rozwiązywanie ważnych strategicznie problemów. Czas poświęcony na rozwiązywanie rutynowych zadań mógłby zostać wykorzystany na rozwiązywanie kreatywnych problemów”.

„Takie systemy umożliwiają podejmowanie decyzji za osobę w obszarach, w których jest to dozwolone” – mówi CEO Atak Killer. Rustem Khairetdinov. „Podczas gdy wcześniej zautomatyzowane systemy podejmowały decyzje tylko w ramach dobrze zdefiniowanych scenariuszy „jeżeli-to”, dzisiejsze i jutrzejsze systemy będą w stanie podejmować decyzje w niejasno określonych warunkach i przy niewystarczających informacjach, co wcześniej mogło być podejmowane tylko przez osoba."

Dyrektor rozwoju Acronis Siergiej Ułasen zauważa też: systemy sztucznej inteligencji rozwiązują wiele zadań, które wcześniej wymagały zaangażowania człowieka. Jednocześnie często działają szybciej i mają przewidywalny wynik oraz jakość pracy.

„Technologie AI naprawdę działają i pomagają usprawniać procesy biznesowe, uwalniając przynajmniej częściowo ludzki intelekt od rutyny kreatywności i tworzenia czegoś nowego” – podkreśla prezes Preferentum (Grupa IT) Dmitrij Romanow. - Łatwo im ocenić efekt ekonomiczny. W przypadku dużej klasy systemów wykorzystujących metody uczenia maszynowego ich zdolność do stawania się „mądrzejszymi” podczas pracy jest zdecydowanym plusem.

Zdaniem dyrektora marketingu firmy Vocord Siergiej Szczerbina, główne zalety polegają na tym, że sztuczna inteligencja dokonuje trafnych prognoz na podstawie „chaotycznych” faktów, źle ustrukturyzowanych, niesklasyfikowanych lub niekompletnych informacji. „Opierając się na nich, uzyskujemy zasadniczo nowy poziom dokładności i szybkości podejmowania decyzji tam, gdzie proste, liniowe reguły nie działają” — kontynuuje Shcherbina. - Ogromne tablice danych są stale uzupełniane, ale same nie są w stanie rozwiązać problemów, do ich analizy potrzebna jest tylko sztuczna inteligencja. Znamy już wiele przykładów udanego zastosowania AI w medycynie, w analizie globalnych i lokalnych procesów gospodarczych i społecznych, w rozwiązywaniu problemów inżynierskich i technicznych, w podejmowaniu decyzji inwestycyjnych, w systemach bezpieczeństwa. Innowacje w zakresie AI pozwolą zautomatyzować zasadniczo szerszy zakres procesów biznesowych. Tym samym w obszarze monitoringu wizyjnego i bezpieczeństwa po raz pierwszy będzie można zagwarantować, bez udziału operatora, całodobowe wykrywanie potencjalnie niebezpiecznych zdarzeń, identyfikowanie osób poszukiwanych. Istnieje już wiele przykładów udanych zastosowań sztucznej inteligencji”.

Główny plus, według współzałożyciela serwisu shikari.do Wadim Szemarowa, jest to, że systemy sztucznej inteligencji można wyszkolić. „Na przykład, jeśli chcemy, aby system był w stanie odróżnić wiadomości ludzi, w których chcą coś kupić, od wiadomości, w których chcą coś sprzedać, lub określić temat wiadomości, nie musimy sporządzać szczegółowej listy słów i wyrażenia wyrażające intencje, nastrój, temat itp. Wybieramy wiele przykładowych tekstów na potrzebne nam tematy, „trenujemy” system na tych przykładach, a potem sam zaczyna rozumieć istotę nieznanych tekstów” – mówi Shemarov.

Szef Centrum Badawczego Robotyki i Regulacji AI, Senior Associate w Dentons Andriej Nieznamow uważa również, że możliwość uczenia się (uczenie nadzorowane lub samodoskonalenie) można nazwać głównym plusem technologii, które potocznie nazywane są „AI”.

Jakie są trudności we wdrażaniu tych systemów?

Podsumowując, główne zalety technologii AI, według ekspertów rynku IT, to osiąganie nowych poziomów produktywności, automatyzacji, wydajności, analizy, uczenia się, podejmowania decyzji, przewidywalności i uczenia się. Ponieważ jednak jest to nowy kierunek, eksperci widzą w nim jeszcze więcej trudności niż korzyści. Dość powiedzieć, że prawie każdy mówca nazwał swoją trudność.

„To zupełnie nowy obszar. Każde zadanie, które jest teraz rozwiązywane, to RnD w najczystszej postaci: trzeba zdefiniować, usystematyzować, wymyślić rozwiązanie, wdrożyć to rozwiązanie i wdrożyć - podkreśla Maxim Arkhipenkov. „To proces twórczy, który wymaga wysokiego poziomu naukowego i eksperckiego zarówno bezpośrednio w obszarze zastosowania tego rozwiązania – czy to będzie FMCG, kosmiczna, medycyna, czy też w zakresie wdrażania systemów sieci neuronowych.”

Według Aleksandra Pivovarova trudność polega na „znalezieniu równowagi między szumem a rzeczywistą użytecznością, trudnością uczynienia tych technologii niewidocznymi dla konsumenta oraz brakiem błędów w ich działaniu”.

Dmitrij Karbasow uważa, że ​​„kluczowa trudność tych projektów wiąże się z nieprzewidywalnością wyniku”. „Załóżmy, że kupując system CRM, klient jasno rozumie, jaką funkcjonalność oferuje mu ten system i jak będzie z tej funkcjonalności korzystał” — mówi Karbasow. - Są to procesy, formularze wprowadzania danych, raportowanie itp. Przy wdrażaniu systemu AI bardzo trudno jest przewidzieć wynik bez wdrożenia projektu, ujawnienie technologii i algorytmów praktycznie nic nie powie osobie bez wykształcenia matematycznego i praktyczne doświadczenie, a wśród klientów jest tylko kilku top managerów z takim zapleczem. Pomaga wdrożenie projektów pilotażowych, których metodologię debugowaliśmy i którą stosujemy w 99% projektów.”

„Z pewnością jest wiele trudności”, zastanawia się Maxim Andreev. - Głównym być może jest brak wystarczająco dużych zbiorów danych do trenowania sztucznej inteligencji. Do tego potrzebne są dane historyczne. Wyjaśnię, co mam na myśli: dla jednej dużej firmy wykonaliśmy prognozę sprzedaży usług transportowych - przewidzieliśmy wagę ładunku i kierunek transportu. Nie mogliśmy w żaden sposób osiągnąć dobrej trafności prognozy, zaczęliśmy się zastanawiać, o co chodzi i okazało się, że w danych historycznych, które były przechowywane w firmie, gdzieś waga była brana pod uwagę z opakowaniem, a gdzieś bez. Jednocześnie po prostu nie ma znaku, za pomocą którego można by śledzić ten czynnik. Oznacza to, że kiedyś w przeszłości te informacje nie odgrywały żadnej roli, ale teraz wszystko się zmieniło. Dlatego tak ważne jest zebranie wszystkich danych, które można zebrać „na żądanie”. Technologie gromadzenia i przetwarzania danych nieustannie ewoluują, a firmy już teraz mogą wdrażać technologie Data Lake, które stają się doskonałą platformą do szkolenia sztucznej inteligencji. Inną trudnością jest to, że same algorytmy są wciąż dość małe. Dlatego przed wprowadzeniem firmy konieczne jest przeprowadzenie badań. Dzięki temu możemy dowiedzieć się, czy w określonych warunkach, na konkretnych danych i dla konkretnych procesów biznesowych możliwe będzie zbudowanie AI, której koszt nie przekroczy wartości, jaką daje ona firmie.”

Anna Plemyashova uważa, że ​​głównym problemem jest całkowity brak lub niedostateczna ilość danych do budowy dokładnych modeli. „Dla przedsiębiorstw przemysłowych, gdzie takie rozwiązania wymagają znacznych inwestycji w infrastrukturę, jest to efekt ekonomiczny opóźniony w czasie: najpierw trzeba zacząć zbierać i gromadzić dane, a potem można przejść do rozwiązań wykorzystujących inteligentne systemy. Przejściowe rozwiązania BI i wizualizacja danych w czasie rzeczywistym pozwalają przybliżyć korzyści ekonomiczne – mówi Plemyashova. - Kolejną trudnością jest konieczność restrukturyzacji procesu biznesowego przy wprowadzaniu inteligentnych systemów. Czyli nie wystarczy kupić takie rozwiązanie i włożyć jak kwiatek do wazonu czy aplikację na komputer. Konieczne jest, aby ta decyzja była przyjazna procesowi biznesowemu: tworzyć, rekonfigurować, a nawet anulować niektóre operacje, przekwalifikowywać ludzi, optymalizować personel.”

„Te systemy są oparte na danych i dużych zbiorach danych” – przypomina Sergey Ulasen. - Do uczenia modeli potrzebne są znaczne zasoby obliczeniowe, a do przechowywania dużych zbiorów danych wymagana jest odpowiednia infrastruktura. Dlatego wdrożenie systemów AI wymaga znacznych inwestycji w sprzęt.

Z kolei gromadzenie i przygotowywanie danych wymaga dużego wysiłku organizacyjnego, a często opracowania nowego oprogramowania wspomagającego analizę danych.”

Svetlana Gatsakova uważa, że ​​trudności polegają przede wszystkim na „niedostatecznym zwróceniu uwagi na granice zastosowania każdej konkretnej technologii sztucznej inteligencji, na pułapki”. A także „w słabej interpretowalności wyników (wszak np. sieć neuronowa nie wyjaśnia swoich wniosków), w trudnościach w tworzeniu jednorodnych zbiorów danych do uczenia i testowania modeli”. Kolejną trudnością jest „ślepa wiara w dane i brak skupienia się na intuicji menedżera oraz czynnikach, które trudno zmierzyć i zintegrować z procesami DDM”. Na to, według Gatsakowej, nakładają się „złożoności charakterystyczne dla organizacji rosyjskich”. „Jest to mała dostępność rzetelnych danych o świecie zewnętrznym organizacji i wynikające z tego ryzyko izolacji od informacji wewnętrznych, czyli przekształcenia się w swoistą organizację autystyczną. Ponadto jest to niewielka (w porównaniu z czołowymi firmami zachodnimi) penetracja kultury DDM, ograniczona głównie do absolwentów zachodnich szkół biznesu.

„AI pomaga zautomatyzować wiele procesów i zastąpić nisko wykwalifikowanych pracowników, ale jednocześnie wymaga kontroli od programistów, których koszty pracy są oczywiście wyższe” – mówi Angelina Reshina. „Uczenie się systemu musi być kontrolowane, aby nie wykraczało poza dopuszczalne granice”.

Według Sergeya Shcherbina trudności tkwią w przestarzałym sprzęcie i słabej infrastrukturze, starszych platformach sprzętowych i programowych, które w trudnych ekonomicznie czasach i przy ograniczonych budżetach niewiele osób odważy się zmienić. „Czynnik ludzki też ma wpływ” – podkreśla Shcherbina. - Tu brakuje wykwalifikowanej kadry i niewystarczający poziom kompetencji, czyli konserwatyzm liderów. Co więcej, nie wszyscy rozumieją, dlaczego jest to konieczne i po co wydawać pieniądze na modernizację, kiedy „po staremu” wszystko i tak wydaje się działać”.

„Wśród trudności w budowaniu systemów AI należy przede wszystkim zwrócić uwagę na brak personelu”, zauważa Andrey Sykulev. - Specjalistów jest bardzo mało, bo wymagania są tu bardzo wysokie: oprócz umiejętności programowania trzeba opanować dość skomplikowany aparat matematyczny oraz mieć wiedzę i doświadczenie w przedmiotowych dziedzinach. Dość często „przeszkodą” jest słaba jakość danych i brak infrastruktury do ich integracji. Kolejną ważną kwestią jest bezpieczeństwo danych, ponieważ dane skonsolidowane na potrzeby działania AI mogą stać się celem ataku lub, delikatnie mówiąc, zostać wykorzystane do innych celów”.

Alexey Bogachev uważa również, że jedną z głównych trudności jest personel. „Jak w przypadku wszystkiego, co nowe, pytanie brzmi, jak z tym pracować. Ponieważ zastosowanie dowolnej technologii wymaga wykwalifikowanych specjalistów, a jest to bardzo młody kierunek, dlatego dość trudno jest znaleźć ludzi, którzy by to zrozumieli.”

Problem kadrowy ma drugą stronę. „Główna trudność polega na tym, że niewielu menedżerów najwyższego szczebla przedsiębiorstw rozumie, czym jest sztuczna inteligencja i jakie jest jej praktyczne zastosowanie” — wspomina Dmitrij Karbasow. - Tak, prawie wszyscy słyszeli o AI, wszyscy wiedzą, że AI pomaga optymalizować procesy biznesowe, obniżać koszty, usprawniać niektóre funkcje (logistyka, analiza zachowań konsumenckich, prognozowanie obciążenia produkcji i wielkości sprzedaży itp.). Ale niewielu klientów rozumie, że aby sztuczna inteligencja działała tak, jak powinna, konieczne jest sformułowanie zadania biznesowego i kryteriów jego sukcesu w aspekcie biznesowym. Innymi słowy, klient musi zrozumieć, które z parametrów należy zlecić analizie systemu AI i jak postępować z otrzymanymi danymi z punktu widzenia podejmowania decyzji zarządczych.”

„Jako główną trudność we wdrażaniu takich rozwiązań można wyróżnić dwa czynniki: ludzki i technologiczny”, mówi Nikołaj Patskow. - Pierwszym jest problem małej liczby ekspertów zdolnych do interakcji z systemami sztucznej inteligencji. Problem ten jest sukcesywnie rozwiązywany, rynek docenia wartość takich specjalistów i coraz więcej pracowników opanowuje umiejętności niezbędne na rozwijającym się rynku. Czynnik technologiczny można przypisać brakowi mocy obliczeniowej: teraz ponownie rozwijamy pomysły, które będziemy mogli zrealizować dopiero wraz z pojawieniem się potężniejszych maszyn. Biorąc jednak pod uwagę prognozowany wzrost produktywności (wzrost 1000-krotny w ciągu najbliższych 10 lat), uważamy, że ewolucyjny rozwój technologii przynajmniej nie zwolni.

Według Alekseya Chaleya istnieją trzy główne trudności: „Pierwszym są ludzie. Na świecie jest bardzo mało osób, które są w stanie pracować w obszarach przygranicznych, które jednocześnie rozumieją dziedzinę (w naszym przypadku analizę wirusów), są dobrze zorientowane w matematyce, statystyce i uczeniu maszynowym, a także wiedzą, jak programować choć trochę. Drugi to dane treningowe. Dane te trzeba gdzieś zabrać, a następnie oznaczyć. Dane są bardzo trudne do zdobycia. Nawiasem mówiąc, przez to postęp w rozwoju sztucznej inteligencji jest utrudniony, ponieważ badacze nie mają możliwości eksperymentowania z modelami. Nie wystarczy być tylko utalentowanym analitykiem i programistą – bez danych nie da się stworzyć niczego w dziedzinie AI. A trzeci to koszt infrastruktury. Początkowa inwestycja w infrastrukturę może być dość znacząca”.

„Aby sztuczna inteligencja dobrze rozwiązywała problemy biznesowe, technologia musi być „dostosowana” – uważa Dmitrij Szuszkin. - Każda maszyna, podobnie jak człowiek, musi być przeszkolona na rzeczywistych danych, aby podejmować trafne decyzje. Aby uczyć takiego systemu, trzeba najpierw zebrać lub zsyntetyzować dużą ilość dobrze oznakowanych danych - na przykład informacji o finansach, produkcji, obsłudze klienta i tak dalej. W dużym biznesie łatwiej jest takie dane przygotować i zebrać, ponieważ wiele firm korzysta już z systemów strumieniowego wprowadzania danych z różnego rodzaju dokumentacji, ta informacja korporacyjna jest usprawniona i uporządkowana. Tworzenie takich macierzy w średnich i małych firmach jest wciąż mniej dostępne.”

Zhamilya Kameneva jako jedną z głównych trudności wymienia wysokie koszty takich rozwiązań, długość projektów i długi zwrot z inwestycji (minimum 2-5 lat). „Po drugie, jak każde nowe narzędzie, potrzeba długiej i żmudnej pracy, aby stworzyć rynek dla konsumentów tych technologii”, kontynuuje Kameneva. „Dodatkowo zwracam uwagę na brak wysoko wykwalifikowanej kadry na rynku – zdecydowana większość zagranicznych dostawców i tylko nieliczne instytucje naukowe zajmują się systemami sztucznej inteligencji w naszym kraju.”

Według Dmitrija Romanowa główna trudność, co zaskakujące, ma charakter psychologiczny: „Ludzie są przyzwyczajeni do oczekiwania absolutnej dokładności od komputera. Systemy AI mają wyjście probabilistyczne. Mogą popełniać błędy, udzielać błędnych odpowiedzi iw tym są jak ludzie. Użytkownicy czasami przeceniają moc inteligentnych technologii”.

Vladimir Fomenko jest przekonany, że za kilka lat, gdy ta technologia przestanie być nowa i stanie się bardziej zrozumiała, nie będzie już większych trudności z jej wdrożeniem. „Będą systemy lub programy, które będą mogły tworzyć systemy lub programy AI”.

Ale Rustem Khairetdinov uważa, że ​​nie ma trudności z wdrożeniem - „zarówno aparat matematyczny, jak i algorytmy zaimplementowane w oprogramowaniu, a także moc obliczeniowa są teraz dostępne niemal „od ręki” lub „z chmury”. „Trudność polega raczej na sformułowaniu problemu, zbudowaniu modelu do analizy. Wkrótce zmierzymy się z faktem, że na czystych matematyków, jak się ich obecnie nazywa data science, będzie mniej poszukiwań niż specjalistów z innych dziedzin (lekarze, technolodzy, specjaliści od bezpieczeństwa, lingwiści itp.) ze znajomością zasad działania maszyn i głębokie „uczenie się” ” - podkreśla Khairetdinov.

Wszystko zaczęło się od rewolucji naukowo-technicznej, która była potężnym impulsem do rozwoju technologii. Wtedy też nastąpiło przejście od społeczeństwa przemysłowego do postindustrialnego. Oczywiście Nikola Tesla ze swoim prądem przemiennym, Alexander Popov z wynalezieniem radia, Alexander Bell - dzięki niemu ludzkość poznała telefon, uważani są za geniuszy, którzy wywrócili zwykły obraz świata do góry nogami.

Warto wspomnieć o osobach, które do niedawna tworzyły lub nadal działają w tej żyznej dziedzinie. Bill Gates, Mark Zuckerberg, Elon Musk to wybitne umysły, które wniosły i nadal wnoszą znaczący wkład w rozwój dzisiejszego społeczeństwa. Posuwają naprzód nasz nowy, zaawansowany technologicznie świat. I już wkrótce nowy cud pojawi się przed oczami ludzi. Niestrudzony Elon Musk powiedział, że za dziesięć lat będzie można pisać wiadomości za pomocą „siły myśli”. Stosunkowo niedawno nazwano by go wariatem lub ekscentrykiem, ale za starych dobrych czasów można by ich policzyć! Ale w XXI wieku świat stał się bardziej tolerancyjny i dociekliwy. Trudno jednak zaskoczyć ludzkość, która ma dość dużej ilości nowości, informuje.

Co zatem może zainteresować nasze pokolenie i przenieść technologię na wyższy poziom? Odpowiedzią jest sztuczna inteligencja i nanotechnologia. Stworzenie sztucznej inteligencji doprowadzi do pojawienia się nowych kierunków, a także rozszerzenia funkcji już istniejących, takich jak rozpoznawanie i synteza mowy, predykcja, analiza skupień i wiele innych. Prace rozwojowe trwają już od dawna, ale do stworzenia w pełni funkcjonalnego modelu potrzebne będzie nowe rozwiązanie techniczne, zwane „superkomputerem kwantowym”, którego moc obliczeniowa może zapewnić pełną funkcjonalność.

Wdrożenie tych pomysłów ma swoje globalne plusy i minusy:
Pierwszym plusem jest czynnik produkcji. Dziś obecność osoby jest konieczna, ocenia jakość wykonanej pracy i eliminuje awarie techniczne.

W przyszłości sztuczna inteligencja będzie samodzielnie zarządzać całym łańcuchem. Zakłada się, że zrobi to o rząd wielkości lepiej niż jego twórca.

Drugi to badania. Badanie kosmosu, głębin oceanu czy jądra ziemi stanie się bezpieczniejsze, da więcej możliwości. Tam, gdzie człowiek nie może przejść, poradzi sobie maszyna.

Trzeci to medycyna. Diagnostyka, chirurgia, rehabilitacja, implanty.

Z minusów można zidentyfikować:
Najważniejsze jest zastąpienie człowieka przez maszyny, co doprowadzi do masowego bezrobocia ludności. Co zrobić z milionami, miliardami bezrobotnych? Pytanie jest nadal otwarte.

Drugi to awarie w działaniu globalnych sieci informacyjnych i produkcyjnych. Może to spowodować globalne problemy.

W 2003 r. również w Kanadzie wystąpiły zakłócenia w systemie zasilania. Nowy Jork, Detroit, Toronto, Montreal, Ottawa zostały pozbawione prądu. Korki, setki tysięcy ludzi uwięzionych w metrze, grabieże, ofiary śmiertelne, wahania na światowych rynkach ropy.

To takie irytujące wezwanie. Powody były różne. Uderzenie pioruna, awarie w elektrowniach atomowych, ale fakt pozostaje. Pięćdziesiąt milionów ludzi pozostało bez prądu na kilka godzin, co doprowadziło do paniki i zamieszania. Niektórzy zachowywali się jak zagubione dzieci, inni byli gorsi niż zwierzęta.

Świat jest bardzo kruchy, a powłoka cywilizacji ludzkiej jest bardzo cienka.

Trzeci to przejęcie władzy na planecie przez AI, zniewolenie lub całkowite zniszczenie ludzi. Dziś taki scenariusz jest rozważany tylko w filmach i książkach science fiction. Ale to nie pierwszy raz, kiedy ludzkość urzeczywistnia bajkę. I niekoniecznie bajka ze szczęśliwym zakończeniem.

Ale bądźmy optymistami. Wierzymy w ludzki geniusz i nowe nazwiska w świecie wysokich technologii i humanitarnych idei. Cywilizacja nie raz stawała na krawędzi, ale za każdym razem pojawiają się ludzie z zaawansowanymi, niestandardowymi myślami, które nie pozwalają im spaść w przepaść.

Błąd w tekście? Wybierz go myszką! I naciśnij: Ctrl + Enter

Popularny

Lider siły politycznej „Pozycja Obywatelska” Anatolij Grycenko pod względem poziomu sympatii elektoratu znacznie wyprzedził współprzewodniczącego frakcji „Platforma Opozycyjna – Za Życie” Jurija Bojko.

Skandaliczna primabalerina rosyjskiego show-biznesu, tancerka, a ostatnio piosenkarka Anastasia Volochkova, po raz kolejny zaszokowała publiczność swoimi wybrykami, donosi strona.

Odpowiedź na pytanie, dlaczego socjaliści na całym świecie obiecują komuś dramatycznie uszczęśliwić, obsypać pieniędzmi, które komuś zabiorą, jest bardzo prosta. Chodzi o to, że jest to jedyny ekonomiczny

Według portalu nikomu już nie jest tajemnicą, że jeden z najbardziej wpływowych ukraińskich oligarchów, Igor Kołomojski, ma duży wpływ na niektórych polityków w nadchodzących wyborach prezydenckich.

Niektóre rośliny do mieszkania nie tylko doskonale dekorują dom, ale także oczyszczają powietrze, a także służą jako profilaktyka wielu chorób. Jak informuje serwis, eksperci powiedzieli jakie

Kandydat na prezydenta Ukrainy, lider „95 kwartału”, aktor Wołodymyr Zełenski podzielił się ze swoimi fanami nowym zdjęciem, na którym pokazał, jak mija mu dzień wolny, donosi respondua.net.

ODŻYWIANIE PRZED TRENINGIEM


Odżywianie przedtreningowe opiera się na spożywaniu alternatywnych substratów energetycznych (głównie węglowodanów) w celu jak najdłuższego zachowania rezerw energetycznych organizmu w stanie nienaruszonym. Właściwe odżywianie przedtreningowe to doskonały sposób na uzupełnienie poziomu energii i odgrywa ważną rolę w zwiększeniu efektywności treningu. Konieczność spożywania posiłków 60-90 minut (w zależności od metabolizmu i ilości pokarmu) przed treningiem. Jedzenie powinno zawierać gramy: od 25-40 białka, 70-90 węglowodanów i nie więcej niż 15 tłuszczu.


Węglowodany


Zapasy glikogenu są bardzo poszukiwane podczas intensywnych treningów siłowych. Glikogen to cukier magazynowany w wątrobie i mięśniach. Ponieważ ćwiczenia beztlenowe nie wiążą się z nasyceniem krwi dużą ilością tlenu, organizm nie jest w stanie rozkładać tłuszczów i wykorzystywać ich jako głównego źródła paliwa. Zamiast tego organizm musi wykorzystywać oba magazyny cukru, ten zmagazynowany w mięśniach i ten dostarczany przez wątrobę do krwi.


Większość posiłków przedtreningowych powinna składać się z węglowodanów złożonych. Węglowodany złożone mają niski indeks glikemiczny (IG). IG jest miarą natychmiastowego wpływu węglowodanów na poziom glukozy we krwi. Węglowodany proste są łatwiej trawione, dzięki czemu mają natychmiastowy wpływ na poziom glukozy we krwi, co oznacza, że ​​mają wysoki IG. I odwrotnie, bardziej złożone węglowodany trawią się dłużej i dlatego mają mniejszy wpływ na poziom glukozy i mają niższy IG.


Ale dlaczego to wszystko jest ważne i jaki jest sens ich spożywania? Węglowodany o niskim IG (złożone) są rozkładane przez długi czas, a produkty rozpadu (proste węglowodany, które powstają z strawionych węglowodanów złożonych) są równomiernie uwalniane do krwi przez długi czas. Pozwala to uniknąć wzlotów i upadków energii i wydajności oraz pomaga utrzymać stan anaboliczny w późniejszych etapach treningu.


Zasadniczo posiłki przedtreningowe powinny składać się ze zbóż − płatki owsiane, brązowy ryż, pieczywo pełnoziarniste, słodkie ziemniaki, makaron durum, rośliny strączkowe, orzechy.


Wiewiórki


Białka są znane jako budulec mięśni. Zbudowane są z mniejszych jednostek - 9 aminokwasów, które nie mogą być wytwarzane w organizmie i muszą pochodzić z pożywienia lub suplementów (aminokwasy egzogenne). Białka zawierające wszystkie niezbędne aminokwasy nazywane są białkami pełnowartościowymi. Wszystkie produkty pochodzenia zwierzęcego (mięso, jaja, produkty mleczne) są białkami pełnowartościowymi i muszą być dodane do diety przed i po treningu.


Źródła białka:



  • Mięso (wołowina, indyk, kurczak)


  • Ryby (łosoś, tuńczyk)


  • Jajka


  • Nabiał


  • orzechy

Inną strategią przedtreningową jest wykorzystanie zwiększonego przepływu krwi do pracujących mięśni, ponieważ wtedy mięśnie są najbardziej wrażliwe na składniki odżywcze.


Brak aminokwasów zawsze był czynnikiem ograniczającym syntezę białek, dlatego włączając białko do swojej diety przedtreningowej przyczynisz się do przyspieszonego dostarczania aminokwasów do tkanek mięśniowych.



Staraj się unikać obecności tłuszczów w diecie przed treningiem. Tłuszcze znacznie spowalniają proces trawienia. Ponieważ organizm ludzki zwiększa przepływ krwi do tych narządów, które tego potrzebują, będąc w stanie ciężkiego trawienia, obciążony żołądek ma pierwszeństwo przed mięśniami, co nie jest dobre. Dlatego te gramy tłuszczu, które otrzymujesz wraz ze źródłami węglowodanów i białek, będą wystarczające.


Przykładowy posiłek przedtreningowy



  • Pierś z kurczaka - 200 gr. (45 gr. b.)


  • Brązowy ryż - 300 gr. produkt gotowy (65 gr. ug.)


  • Chleb pełnoziarnisty - kawałek 50 gr. (20 gr. ug. + 7 gr. b.)


  • Sok - 300-500 ml



  • Płatki owsiane - 300 gr. (60 gr. ug. + 10 gr. b.)


  • Beztłuszczowy twaróg - 200 gr. (44 gr. b.)


  • Zielony banan - 1 sztuka (30 gr. ug.)


  • Woda - 300-500 ml


SUPLEMENTY PRZEDTRENINGOWE

A więc zjadłeś dobry posiłek z pełnowartościowym posiłkiem, dodałeś do organizmu węglowodany, aby uzupełnić zapasy glikogenu i dostarczyłeś trochę pełnowartościowego białka. Teraz trzeba natychmiast dostarczyć organizmowi dodatkowych składników odżywczych w postaci suplementów, aby zwiększyć efektywność treningu. Odżywki sportowe są szybko wchłaniane, dlatego tak powinno być weź 15-30 minut przed treningiem. Poniżej znajduje się lista niektórych popularnych suplementów przedtreningowych:



  1. Białko Serwatkowe- chyba najważniejszy suplement zarówno przed jak i po treningu. Dostarczy Ci białka i aminokwasów rozgałęzionych, które podczas treningu zostaną dostarczone do komórek mięśniowych tak szybko, jak to możliwe.


  2. Kreatyna - zwiększa objętość i energię mięśni, a także zatrzymuje wodę w mięśniach, co przyczynia się do dobrego nawodnienia. To bezpieczny suplement.


  3. Aminokwasy BCAA są niewątpliwie niezbędnymi aminokwasami w każdej diecie kulturystycznej. Wspomagają wzrost i regenerację mięśni. Jednak potrzeba ich stosowania może budzić wątpliwości. W końcu odżywki białkowe (zwłaszcza koncentrat białek serwatkowych, a nie izolat) mają już doskonały zestaw aminokwasów. Dlatego stosowanie BCAA po prostu nie będzie miało sensu, a warto wcześniej lepiej zapoznać się z etykietą na białku serwatkowym.


  4. NO2 - tlenek azotu, rozszerza naczynia krwionośne dzięki czemu więcej krwi może być dostarczone do mięśni. Oznacza to, że więcej składników odżywczych może zostać dostarczonych do mięśni.


  5. Kofeina jest doskonałym stymulantem, który dostarcza organizmowi energii i pomaga w koncentracji. Kofeina działa w przeciwnym kierunku niż kreatyna (pierwsza działa moczopędnie, druga magazynuje płyny), więc warto wybrać jedną.


  6. Leukic Hardcore - kompleks składników odżywczych utrzymujący optymalny poziom insuliny we krwi i stwarzający dogodne warunki dla maksymalnego wzrostu tkanki mięśniowej.


  7. Nano Vapor - kompleks specjalnych związków biologicznie czynnych, stymuluje anabolizm komórek mięśniowych i zapobiega efektowi katabolicznemu.

Przykładowy koktajl przedtreningowy



  • Białko serwatkowe - 2 miarki (około 40-50 gr. b.)


  • Kreatyna - 5 gr.


  • BCAA - 5-10 gr. (w zależności od składu białka weź tylko BCAA lub tylko białko)


  • NO2 - 2 kapsułki


  • Woda - 500 ml



  • nano para - 2 miarki (50 gr.)


  • Leukic Hardcore - 1 porcja (6 kapsułek)


  • Woda - 300 ml

Wyślij swoją dobrą pracę w bazie wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy korzystają z bazy wiedzy w swoich studiach i pracy, będą Wam bardzo wdzięczni.

Hostowane na http://www.allbest.ru/

Wstęp

Podstawy sztucznej inteligencji

Możliwości maszyny i człowieka: przykłady, praktyka i analiza

Plusy i minusy wykorzystania sztucznej inteligencji w zarządzaniu

Wniosek

Spis wykorzystanej literatury

Wstęp

Nasz świat może być bliski katastrofy. Nietrudno dojść do takiego wniosku przy jakiejkolwiek trzeźwej analizie stanu naszej planety. Stagnacja gospodarcza, bieda, szalejąca inflacja, masowe bezrobocie, przeludnienie, konflikty polityczne, terroryzm, wojny i niebezpieczeństwo ich wybuchu, a także groźba zagłady nie ominęły żadnego zakątka globu. Oczywiście ludzkość zawsze borykała się z wieloma problemami, ale dzisiejsze problemy wydają się oczywiście ważniejsze niż te z przeszłości. Teraz wydaje się, że rzeczywiście osiągnęliśmy punkt, w którym trzeba zrezygnować z czegoś bardzo istotnego. Niestety, przyjęło się zrzucać główną winę za to na rozwój technologii, tj. właśnie to, co ludzkość w całej swojej historii próbowała znaleźć rozwiązanie wielu problemów.

Technologia towarzyszy człowiekowi od tysięcy lat i jest niczym innym jak połączonym efektem ludzkich dążeń do lepszego życia. Teraz jednak są ludzie, którzy uważają, że rozwój technologii wręcz przeciwnie pogarsza życie, a nie je poprawia. Wyzwania, przed którymi stoją dziś ludzie, mają różny zakres, od wstrząsów społecznych wywołanych zmianami technologicznymi, bezrobociem, zanieczyszczeniem i groźbą zagłady nuklearnej, po wyobcowanie i niezadowolenie z pracy i jej konkretnych wyników. Do tego możemy dodać następujące. Możliwe, że złożoność wywołana postępem technologicznym jest odpowiedzialna za nieuleczalne bolączki gospodarki, a systemy techniczne, które stają się tak złożone, że wkrótce ludziom zabraknie wiedzy i zrozumienia, aby nimi zarządzać, zaczynają stanowić poważne zagrożenie.

Naturalnie powstaje pytanie, jak rozwiązać te problemy? Czy nieożywione wytwory technologii mogą znaleźć odpowiedzi na pytania, które sama sobie postawiła, oraz na niezliczone inne pytania, które doprowadzają ludzkość do rozpaczy? Czy same maszyny są w stanie wymyślić rozwiązania, które wymykają się ludzkiemu umysłowi? W tej pracy semestralnej chciałbym udowodnić, że w zasadzie jest to możliwe, a co więcej, w przyszłości musi się to stać.

Takie stwierdzenie to nie tylko sen. Opiera się na odkryciach dokonywanych dzień po dniu w różnych laboratoriach świata, z których najbardziej owocnie pracuje się w dziedzinie technologii komputerowej. Przez długi czas błędnie uważano, że wyjściem komputera może być tylko to, co zostało do niego wprowadzone na wejściu. Pogląd ten został z pewnością potwierdzony w ciągu ostatnich 30 lat w większości prac związanych z przetwarzaniem danych. Obecnie jednak udowodniono niezbicie, że z komputerów można uzyskać coś zupełnie nowego, a mianowicie wiedzę. Ta wiedza z kolei może przybrać formę oryginalnych pomysłów, strategii i rozwiązań realnych problemów.

Do tej pory wiedza tworzona przez maszynę nie ma wielkiego znaczenia praktycznego, nie jest w stanie wyleczyć tych głębokich dolegliwości, na które chory jest nasz świat. Można było się tego spodziewać: w końcu biolog, rozpoczynając syntezę żywej materii, w najlepszym przypadku spodziewa się dostać tylko wirusa, a nie dorosłego konia. Ale bez wątpienia z czasem będzie można skierować komputery tak, by szukały rozwiązań nie w szachach czy jakiejś innej grze, ale bardziej palących problemów, przed którymi stoi społeczeństwo. I najprawdopodobniej je znajdzie.

Oczywiście zajmie to dużo czasu, ale jeśli ktoś postawi sobie taki cel, prędzej czy później go osiągnie. Chciałbym wierzyć, że nadejdzie dzień, kiedy bieda, głód, choroby i konflikty polityczne zostaną okiełznane, a rolę odegra w tym nowa wiedza, otrzymana przez komputery, które będą naszymi pomocnikami, a nie niewolnikami. Ponadto potencjał umysłowy i artystyczny człowieka otrzyma zupełnie inne możliwości rozwoju, które dziś trudno sobie nawet wyobrazić, a wrota ludzkiej wyobraźni otworzą się szeroko jak nigdy dotąd.

I nie wolno nam przegapić naszej szansy, choć może nie być łatwo. Będziemy musieli całkowicie porzucić tradycyjne podejście techniczne, którego głównym celem jest maksymalizacja efektu ekonomicznego użytkowania maszyn i przejść do strategii mającej na celu uczynienie procesów zachodzących w systemach w miarę zrozumiałymi dla ludzi. Aby to zrobić, komputery muszą nauczyć się myśleć jak ludzie, tj. jeśli systemy komputerowe następnej dekady nie wpadną w „ludzkie ramy”, staną się tak złożone i niezrozumiałe, że człowiek po prostu nie będzie w stanie nimi zarządzać. Niemożność poradzenia sobie z tak złożonymi systemami na początku doprowadzi po prostu do awarii (pod względem wielu dostępnych obecnie zastosowań tych systemów); jeśli mówimy o wojskowych systemach ostrzegawczych, systemach sterowania elektrowniami jądrowymi czy globalnych systemach łączności, to wymknięcie ich spod naszej kontroli może doprowadzić do katastrof na skalę światową.

Podstawy sztucznej inteligencji

Od początku lat 80. rozpoczął się nowy etap prac nad sztuczną inteligencją – tworzenie przemysłowych i komercyjnych próbek inteligentnych systemów. Przemysł produkujący takie systemy zaczął się rozwijać, co oznacza, że ​​pojawili się potencjalni konsumenci jego produktów. Co odróżnia systemy inteligentne od innych tworów ludzkiego umysłu? Czego możemy się spodziewać po ich pojawieniu się w najbliższym czasie?

Kluczowym terminem sztucznej inteligencji jest termin „wiedza”. Z pewnym przybliżeniem można powiedzieć, że systemy inteligentne to systemy wykorzystujące wiedzę. Tym różnią się od innych sztucznych systemów (w tym systemów programowych, które zostały zaimplementowane na komputerach w epoce poprzedzającej systemy intelektualne), opartych z reguły na tych samych komputerach.

Pozostając na poziomie metaforycznym, możemy powiedzieć, że zanim komputery „rozumiały”, jak wykonać wpisany w nie program, ale „nie rozumiały”, co robią, a wraz z pojawieniem się inteligentnych systemów komputery nauczyły się „rozumieć”, jak zbudować niezbędny do rozwiązywania problemów program i co ten program robi. Wyjaśnijmy tę ważną myśl. Przy tradycyjnej metodzie rozwiązywania problemu na komputerze programista, który przygotował program dla komputera, znał istotę samego problemu, jego sensowną interpretację. Mogą to być różne programy: do gry w „tryk-traka” lub „go”, do obliczania trajektorii statku kosmicznego lub do obliczania listy płac. Kiedy te programy zostały wprowadzone do komputera, treść zadań zniknęła - komputer ze względu na swoją konstrukcję wykonywał polecenia dowolnego programu w jakościowo identyczny sposób. W parze „komputer-programista” tylko pierwszy wiedział, co robi komputer, a komputer, niczym potężna maszyna sumująca, po prostu wykonywał niezbędne przekształcenia i obliczenia.

W tym tradycyjnym schemacie kryło się niebezpieczeństwo. Polegała ona na nierozerwalności pary „programista – komputer” w rozwiązywaniu problemów. Programista niczym „niewolnik kuchni” musiał wchodzić w interakcję z maszyną, „obojętnie” szlifując wszelkie wprowadzone do niej informacje.

Pojawienie się inteligentnych systemów świadczyło o załamaniu się tego paradygmatu. Jeśli do pamięci komputera zostanie wprowadzona wiedza o tym, jak budowane są programy z warunków problemu i co oznacza to lub inne zadanie w danym obszarze problemowym (czyli jak interpretowany jest cel zadania i jakie są możliwe powiązania między sytuacja początkowa i cel), to funkcje programisty będzie pełnić sam komputer. Automatycznie, na podstawie posiadanej w pamięci wiedzy o obszarze problemowym, o zadaniach, które mogą się tu pojawić oraz o sposobach ich rozwiązania, będzie potrafiła samodzielnie opracować niezbędny program i go wykonać.

Ta chwila jest fundamentalna. Wiedza wprowadzona do komputera pozwala jej teraz „zrozumieć”, co musi zrobić, gdy zajdzie potrzeba rozwiązania problemu. Nawiasem mówiąc, kiedy dokładnie taka potrzeba się pojawia, komputer też „wie” sam siebie (chociaż wymóg rozwiązania problemu może przyjść z zewnątrz – od użytkownika systemu).

Tak kształtują się główne zadania stojące przed tą gałęzią sztucznej inteligencji, którą dziś coraz częściej nazywa się inżynierią wiedzy. Co to za zadania? Przede wszystkim jest to zadanie gromadzenia wiedzy potrzebnej komputerowi. To zadanie wcale nie jest takie proste, jak mogłoby się wydawać na pierwszy rzut oka. Wszakże oprócz wiedzy zawartej w najróżniejszych tekstach, fachowcy dysponują ogromną wiedzą, której nie można znaleźć ani w podręcznikach, ani w instrukcjach, ani w monografiach. Jest to wiedza, którą zwykle nazywa się doświadczeniem, umiejętnością, profesjonalizmem. Często doświadczony specjalista nawet nie podejrzewa, że ​​ma ogromną wiedzę. Wydaje mu się, że „po prostu działa i tyle”, a kolega, który jeszcze nie zdobył doświadczenia, patrzy na niego z zazdrością, nie rozumiejąc, dlaczego wszystko idzie nie tak. Umieć tę wiedzę uzyskać od eksperta-eksperta, umieć przedstawić ją w formie nadającej się do wprowadzenia do pamięci komputera, to pierwsze i bardzo nietrywialne zadanie inżyniera wiedzy. Ale to nie wystarczy. Gromadząc wiedzę pozyskiwaną z różnych źródeł, należy stale dbać o to, aby nie tworzyły one systemu sprzeczności: każda nowa wiedza musi być powiązana z już istniejącą. Pojawienie się nowej wiedzy może wymagać pewnego rodzaju restrukturyzacji utworzonej wcześniej bazy wiedzy. Wymaga to specjalnych procedur zarządzania. Opracowywanie takich procedur i manipulowanie nimi to drugie zadanie inżyniera wiedzy.

Odbierając informacje z otaczającego świata, analizując pojawiające się sytuacje, człowiek stale odwołuje się do informacji zapisanych w jego pamięci. Przyciągając to, co już znane, aby zrozumieć nowe, osoba, wykorzystując swoją wiedzę, niejako uzupełnia opisy wejściowe, uzupełnia je. W każdej rozmowie między dwiema osobami zrozumienie wypowiedzi jest możliwe tylko dzięki temu, że w pamięci rozmówców przechowywanych jest wiele dodatkowych informacji na temat tematu rozmowy. A komputery do uzupełniania wiedzy powinny mieć zestaw podobnych procedur. W tym celu stosuje się tzw. logiki pseudofizyczne: czasową, przestrzenną, przyczynową i inne. Z ich pomocą uzupełniane są opisy wejść, co zapewnia ich zrozumienie. Oprócz uzupełniania opisów w bazach wiedzy, przeprowadzane są również inne procedury: generalizacja i klasyfikacja napływających informacji, hipotezy o związkach faktów przechowywanych w pamięci systemu, zróżnicowanego rodzaju, rzetelne i wiarygodne wnioskowanie faktów wyprowadzonych itp. To kolejne pole działania inżyniera wiedzy.

Odnosząc się jednak bezpośrednio do tematyki zajęć, warto zwrócić uwagę na masowe wprowadzanie komputerów we wszystkich obszarach zarządzania. Jest to pytanie o zdolność administratora człowieka do zrozumienia decyzji, jakie podejmuje komputer wchodzący w skład systemu sterowania. Systemy sterowania złożonych kompleksów technicznych są dziś dosłownie „wypchane” komputerami połączonymi w złożone struktury. Pracując z prędkościami niedostępnymi dla człowieka, przetwarzając ogromną ilość różnorodnych informacji otrzymywanych z obiektu sterującego oraz z innych maszyn, komputer podejmuje decyzje często niezrozumiałe dla człowieka. Jedynym sposobem na ich zrozumienie jest zadanie maszynie pytania: dlaczego rozwiązanie jest takie? A komputer jest zobowiązany do udzielenia niezbędnych wyjaśnień. W tym celu musi posiadać specjalny podsystem wyjaśniający, który pozwala komputerowi „zrozumieć”, dlaczego podjął określoną decyzję. Pojawienie się podsystemów wyjaśniania można postrzegać jako pierwszy krok w kierunku „humanizacji” systemów technicznych. Trudno przecenić znaczenie tego kroku. Systemy techniczne zaszły za daleko w swoim rozwoju, interakcja z nimi stała się dla człowieka zbyt trudna, a konsekwencje działań naszych inteligentnych, ale bezdusznych asystentów mogą być zbyt niebezpieczne.

Rozwój prac z zakresu sztucznej inteligencji i powszechne wprowadzanie inteligentnych systemów do naszego życia świadczy o nowym etapie na ścieżce postępu naukowo-technicznego. Jest to nieuniknione – i musimy być przygotowani na stawienie czoła jego skutkom z pełnym zrozumieniem tego, co się dzieje. To nie problem KTO KOGO i nie obawa, że ​​ONI nas zniewolą, jeśli nie podejmiemy działań, powinien determinować ten nowy etap w życiu ludzkości, ale wspólnota MY + ONI, z której ludzkość niewątpliwie wiele skorzysta, bo pomoże nam rozwiązać problemy, z którymi sami sobie nie poradzimy.

Możliwości maszyny i człowieka:przykłady, praktyka i analiza

28 marca 1979 roku w elektrowni jądrowej Three Mile Island (Pensylwania, USA) w sterowni nr 2 zabrzmiał alarm. Początkowo operatorzy nie wykazywali większego niepokoju, gdyż drobne wypadki na stacji nie należały do ​​rzadkości, jednak po kilku minutach stało się jasne, że tym razem stało się coś znacznie poważniejszego. Mały zawór w układzie pneumatycznym zaciął się, co spowodowało zatrzymanie obiegu wody w układzie wody chłodzącej obiegu wtórnego. Chwilę później uranowy rdzeń reaktora zaczął się nagrzewać i mimo wszelkich wysiłków operatorów sytuacja tylko się pogorszyła. Zawór bezpieczeństwa otworzył się i utknął w tej pozycji; radioaktywna woda i para dostały się do budynku reaktora, a tym samym do atmosfery. Pod dachem zbiornika reaktora utworzyła się ogromna bańka wodoru, która w każdej chwili mogła eksplodować. Istniała groźba, że ​​samo paliwo uranowe zacznie się topić. Każde z tych zdarzeń może doprowadzić do skażenia radioaktywnego całego obszaru dzieła. Pensylwania.

Przez kilka kolejnych dni pracownicy elektrowni wraz z ekspertami z Komisji Dozoru Jądrowego walczyli o przejęcie kontroli nad reaktorem, a przerażony świat z niepokojem obserwował te zmagania. Gubernator stanu zarządził ewakuację dzieci i kobiet w ciąży ze strefy zagrożenia, a wielu mieszkańców wyjechało na własną rękę. Zaledwie tydzień później firma Metropolitan Edison Company, będąca właścicielem stacji, ogłosiła, że ​​rozpoczęto prace konserwacyjne w reaktorze wyłączającym, a życie w Pensylwanii stopniowo zaczęło wracać do normy. Oczyszczenie „stajni Augiasza”, którymi stał się budynek reaktora, zajęło kilka lat.

Komisja, badając rolę czynnika ludzkiego w tym incydencie, doszła do następującego wniosku: „...na operatora spadła taka lawina informacji: wskazania wyświetlacza, sygnały ostrzegawcze, dane do wydruku itp. całkowicie niemożliwe było zidentyfikowanie usterki i dobranie odpowiednich środków do jej usunięcia.”

Komisja Prezydencka zgodziła się z tą konkluzją, stwierdzając, że winą za to obarczone jest „niedostateczne zwrócenie uwagi na czynnik ludzki i jego rolę w zapewnieniu bezpieczeństwa elektrowni jądrowych”. Lekcja wyciągnięta z tego wypadku jest oczywista: dopóki projekt systemów technicznych nie zostanie przemyślany w każdym szczególe, tak aby wszystko, co się w nich dzieje, było absolutnie jasne dla personelu obsługi technicznej, dopóki informacje nie zostaną przedstawione w formie dogodnej do odbioru przez ludzkiego oka i mózgu, a nie maszyny, jakakolwiek awaria zautomatyzowanego systemu może całkowicie uniemożliwić zarządzanie nim.

W 1975 roku holenderska firma stalowa Estelle Hugovens zainstalowała nową, wysoce zautomatyzowaną walcownię gorącą w swoim zakładzie położonym nad brzegiem morza w pobliżu Amsterdamu. Przewidując gigantyczny wzrost wydajności pracy dzięki wprowadzeniu zaawansowanej technologii, kierownictwo przedsiębiorstwa ze zdumieniem stwierdziło, że w rzeczywistości produkcja spadła. Do pomocy zaproszono konsultantów z British Steel Corporation, którzy w raporcie z wyników badania wskazali, że głównym powodem była niewłaściwa organizacja interakcji operatorów z maszyną. The New Scientist opisał to w ten sposób: „Operatorzy stracili zaufanie do siebie tak bardzo, że w niektórych przypadkach po prostu zostawili panel kontrolny bez nadzoru. Ponadto operatorzy nie zawsze w pełni rozumieli teorię sterowania leżącą u podstaw programu komputera sterującego, co skłoniło ich, jeśli to możliwe, do „wycofania się” ze sterowania do czasu wykrycia oczywistych problemów. Jednak ze względu na to, że interweniowały one w proces z dużym opóźnieniem, średnia produktywność była niższa niż w zakładach stosujących tradycyjne metody gospodarowania. W ten sposób automatyzacja pociągnęła za sobą spadek produktywności, a jednocześnie dodatkowo odsunęła operatorów od procesów kontrolnych”.

Problem został spotęgowany przez fakt, że w nowej konstrukcji walcarki taśma jest niewidoczna na całej drodze walcowania, co nie pozwalało operatorom nawet wizualnie śledzić procesu. W szczególności konsultanci w swoim raporcie stanowczo podkreślali, że operatorzy powinni być bliżej procesu technologicznego, a wyświetlane informacje powinny pomagać ludziom zrozumieć sens decyzji, które podejmuje automatyzacja, a nie tylko informować o postępie procesu.

Następny przykład? zarządzania ruchem lotniczym, które w równym stopniu dotyczą zarówno pasażerów, jak i kontrolerów na całym świecie. Zbyt często zdarza się, że samoloty prawie zderzają się w locie, nie wspominając o awariach elektronicznych, które pozostawiają kontrolerów bezradnych na cenne sekundy, jeśli nie minuty. Według Laboratorium Koordynacji Badań Uniwersytetu Illinois, wspomagana komputerowo kontrola ruchu lotniczego w Ameryce staje się tak złożona, że ​​czasami operatorzy mogą mieć trudności ze zrozumieniem, co się dzieje. Jeśli chodzi o perspektywy na przyszłość, istnieją dwa przeciwstawne poglądy na temat tego, jakie powinny być systemy zarządzania, które zastąpią istniejące. Niektórzy eksperci nawołują do coraz większej automatyzacji, wierząc, że wyeliminuje to niepewność związaną z obecnością człowieka; inni uważają, że ludzie i maszyny powinni być swego rodzaju partnerami w tej wspólnej sprawie. Ale bez względu na to, jaką drogą pójdzie dalszy rozwój systemów sterowania, zawsze możliwe są sytuacje, w których wymagana jest interwencja człowieka. A jeśli twórcy systemu nie zadbają z góry, aby dana osoba mogła zrozumieć, jak działa system, to jego interwencja najprawdopodobniej będzie bardzo niewielka i nastąpi z dużym opóźnieniem.

Kwestii militarnej nie można ignorować.

W ciągu ośmiu miesięcy 1979-1980. Wojsko amerykańskie otrzymało trzy fałszywe alarmy ostrzegające przed „atakiem” sowieckich rakiet. Wszystkie sygnały pochodziły z centrum dowodzenia Sił Powietrznych Ameryki Północnej, ukrytego w głębi góry w szt. Kolorado. Pierwszy fałszywy alarm był po prostu wynikiem błędu operatora, który niedbale umieścił w systemie taśmę z informacjami szkoleniowymi. Za drugim razem awaria jednego z elementów systemu: awaria układu scalonego. Trzeci sygnał okazał się celowy – był próbą odtworzenia warunków drugiego alarmu w celach weryfikacyjnych.

Na szczęście w kilka minut po tych fałszywych alarmach wszystko było jasne, ale wywołane nimi nerwowe przeciążenie nie zostało zapomniane. Jest całkiem jasne, że system, który może dosłownie doprowadzić do końca świata, musi być wykonany w ten sposób. tak aby całkowicie wykluczyć możliwość nieporozumień w relacji między człowiekiem a maszyną.

Wniosek płynący z tych historii jest oczywisty: w miarę jak systemy techniczne stają się coraz bardziej złożone, coraz trudniej jest je zrozumieć, a co za tym idzie, kontrolować. Dotyczy to zwłaszcza systemów komputerowych, które nawet jeśli mają wykonywać najprostsze czynności, muszą być bardzo złożone. Dążymy do tego, aby potrafili rozwiązywać problemy o znaczeniu praktycznym, a tym samym zwiększać ich złożoność do poziomu przekraczającego zdolność zrozumienia przez osobę, a nawet grupę osób. Ten czas już nadszedł. Jak właśnie pokazaliśmy, duże programy komputerowe i systemy operacyjne rozrastają się do takich rozmiarów, że ani ich twórcy, ani użytkownicy nie są w stanie sobie z nimi poradzić.

Jeśli systemy komputerowe będą rozwijać się dalej tą samą drogą, co teraz, kiedy coraz więcej funkcji przypisywanych jest ich i tak już niezbyt niezawodnej architekturze, to nie ma wątpliwości, że komputery lat 90. pomocnicy świata „złego ducha”. Społeczeństwo ludzkie, które już teraz jest w dużym stopniu uzależnione od takich maszyn, stanie w obliczu kryzysu o potwornych rozmiarach. Maszyny liczące – w obecnej postaci – w pewnym sensie osiągnęły już granicę swoich możliwości. Dziś głównym zadaniem nie jest już doprowadzenie ich wydajności do maksimum, wydobycie wszystkiego, co możliwe z zasobów maszyn. Wręcz przeciwnie, ich praca powinna opierać się na zupełnie innej idei – idei antropocentryzmu. Aby zrozumieć, jak działają maszyny, musimy nauczyć się organizować je na obraz i podobieństwo pracy ludzkiego mózgu.

Możemy rozwinąć tę złowrogą historię, wyobrażając sobie naszą przyszłość tak, jak opisali ją pisarze science fiction, poczynając od Samuela Butlera: świat, w którym władzę przejęły maszyny. Pomysł ten jest ogólnie odrzucany przez ekspertów technicznych jako absurdalny. Ale czy to naprawdę jest takie absurdalne? Weźmy na przykład komputery, które są już wykorzystywane w zarządzaniu życiem naszych miast. Do jego funkcji należą nie tylko zadania administracji centralnej, ale także służby publiczne, utrzymanie porządku w mieście, szkolnictwo, banki, ruch lotniczy, sterowanie ruchem, problemy organizacji budowlanych i planistycznych. I przychodzi taki moment, kiedy odpowiadające sobie sieci komputerowe zaczynają zwracać się do siebie bezpośrednio - początkowo z najprostszych powodów. Jeśli np. w jednym systemie zdecydowano się na rozkopanie drogi, to śmieciarki muszą zmienić trasę przejazdu. Jeśli ktoś rezerwuje bilet lotniczy, to linia lotnicza musi sprawdzić, czy jest uprawniony do użycia przedstawionej karty kredytowej.

Przechodząc teraz do mniej koszmarnych, ale bardziej palących kwestii, spójrzmy na głęboką stagnację gospodarczą, wysokie bezrobocie i kryzysy zaufania, które coraz bardziej nękają świat w ostatnich latach. Wszystkie te zjawiska, które faktycznie mają miejsce, na pierwszy rzut oka są zupełnie niewytłumaczalne. Zacznijmy od problemu wzrostu gospodarczego, a właściwie jego braku. W rzeczywistości kapitał produkcyjny krajów uprzemysłowionych nie kurczy się. Jednak ze względu na ciągły postęp nauki i techniki podlega ona ciągłym przemianom. Jaki jest charakter tej zmiany? Zainwestowany kapitał przynosi większe zyski. Robotnicy w fabrykach mogą teraz wyprodukować więcej w ciągu jednego dnia niż trzydzieści lat temu. Rolnik może skosić więcej siana, niż jest to konieczne, aby uzasadnić wynajęcie kosiarki. Niedaleki jest dzień, w którym pojawią się samojezdne kosiarki.

Co więcej, rozwój naukowy i technologiczny nie odbywa się po prostu ze stałą prędkością: bez względu na to, jak oceniamy jego tempo, oczywiste jest, że stale wzrasta. Dlaczego więc nie bogacimy się w tym samym tempie? Nawet biorąc pod uwagę straty związane z reorganizacją pracy w niektórych branżach, ludzkość jako całość powinna odnieść znaczny zysk. Najwyraźniej działa jakaś siła, która blokuje ten róg obfitości, z którego, jak się wydawało, powinno teraz spływać na nas wszystkich błogosławieństwo.

Wydaje się, że wszyscy jesteśmy zjednoczeni w żalu z tego powodu. Ale różni ludzie mają różne postawy co do tego, która część tego procesu powinna być piętnowana. Niektórzy są absolutnie pewni, że to wina związków zawodowych, które są w tajnym spisku z niewidzialną siatką elementów dywersyjnych i terrorystów z całego świata, którzy realizują swoje cele polityczne. Dla innych winowajców można znaleźć w biurach gigantycznych korporacji i banków, prawdopodobnie sprzymierzonych z tajną siecią ponadnarodowych monopoli i karteli, kierowanych przez jednego lub dwóch „złych karłów” z Zurychu, realizujących własne cele polityczne. Jest też trzecia „szkoła myślenia”, może nie tak podatna na namiętności jak dwie poprzednie, ale jeszcze bardziej urojeniowa, która uważa, że ​​wszystkiemu winna jest sama technologia. Nierzadko zdarza się, że wściekły kupujący wyjmuje go na niedziałającym automacie, dopóki nie jest całkowicie niezdolny do działania.

Chociaż być może takie antytechniczne stanowisko nie jest tak złudne. Pomysł ten można przynajmniej przedyskutować, ponieważ podane wcześniej przykłady pokazują, że nasze osiągnięcia techniczne są nieco podobne do niedziałającego automatu.

Będziemy musieli zrobić małą dygresję w głąb historii, aby dowiedzieć się, czy w całym jej przebiegu był jakiś stabilny i jednocześnie ewoluujący proces? Taki proces nietrudno znaleźć – to on był impulsem do rozwoju rolnictwa. I tysiąclecie po tysiącleciu nasi przodkowie zdawali się nie zauważać, że proces ten szedł nieprzerwanie w tym samym kierunku, aż do XIX-XX wieku. nie osiągnęliśmy ostatniego etapu przyspieszenia. Taki stały proces był stopniowym, choć bolesnym, z wieloma niepowodzeniami i przerwami, wzrostem rozumienia przez człowieka otaczającego go świata, wzrostem jego umiejętności zarządzania tym światem.

Dzisiaj, za pomocą technologii komputerowej, próbujemy nauczyć się rozwiązywać złożone problemy, których nie można jeszcze rozwiązać na komputerze - problemy, których nie można rozwiązać „bezpośrednio”, znajdując odpowiedź na pytanie w skończonej liczbie kroków za pomocą prostych obliczeń. Zdarza się jednak, że chociaż sam problem jest bardzo trudny, to problem odwrotny rozwiązuje się znacznie łatwiej. Na przykład obliczenie pierwiastka kwadratowego jest bardzo trudne, ale kwadrat liczby jest bardzo łatwy. Możliwe, że uczeń uzna za bardziej ekonomiczne obliczenie kwadratów wszystkich liczb, o które może zostać poproszony, i wypełnienie ogromnej tabeli wyników (zapisując je tylko w odwrotnej kolejności: najpierw kwadraty, uporządkowane według wielkości, a dla im podstawy, być może z pewną interpolacją w celu wypełnienia przejść). Następnie, jeśli chcesz znaleźć jakiś pierwiastek kwadratowy, możesz po prostu spojrzeć na tabelę. Ale ta metoda ma jedną dużą wadę - wynik jest całkowicie niewytłumaczalny dla użytkownika.

Powstaje pytanie, czy nie lepiej nie wymyślać tego rodzaju głupich systemów odniesienia, których samo istnienie poniża człowieka, ponieważ zaniedbuje jego sądy i zrozumienie. Ciekawe, że po raz pierwszy ten argument przedstawił Platon ponad 2300 lat temu. W Fedrach Sokrates opowiada historię egipskiego boga Togi, który przybył do króla bogów Tamuza ze słowami: „Mój panie, wynalazłem dowcipną rzecz zwaną pismem, poprawi ona zarówno mądrość, jak i pamięć Egipcjanie”.

W odpowiedzi Tamuz stwierdził, że wręcz przeciwnie, pisanie jest substytutem niskiej jakości pamięci i zrozumienia. „Ten, kto go zdobędzie, przestanie ćwiczyć swoją pamięć i stanie się zapominalski, będzie polegał na pisaniu, mając nadzieję, że te ikony mu coś przypomną, zamiast polegać na swoich wewnętrznych rezerwach”.

Sokrates cytuje Ammona, który potępił błędny pogląd, że „poprzez pisanie można przekazać lub zdobyć jasną i wyraźną wiedzę na dany temat, albo że słowa pisane mogą zrobić coś więcej niż tylko przypomnieć czytelnikowi to, co już wie”. Innymi słowy, osoba może zdecydować, że mądrość jest na piśmie, podczas gdy w rzeczywistości mądrość musi być w niej samej. „Można by przypuszczać”, dodaje Sokrates, „że słowa pisane rozumieją, co mówią, ale jeśli ponownie zapyta się ich, co oznacza to i to, będą ciągle udzielać tej samej odpowiedzi”.

Innymi słowy, Sokrates niejako narzeka, że ​​pisanie nie przejdzie słynnego testu Alana Turinga (według tego testu maszyna może udowodnić, że jest inteligentna, jeśli uda jej się przekonać osobę mówiącą do to przez dalekopis, że jego rozmówca - człowiek). Rzeczywiście, gdyby maszyna potrafiła wyjaśnić, co zawiera, to można by założyć, że w jakimś sensie „zrozumiała”, demonstrując w ten sposób swoją inteligencję. Podobnie jak pismo, przyszłe systemy referencyjne z bilionami bitów pamięci nie zdadzą testu Turinga. Ale podobnie jak pismo, takie systemy z pewnością mają prawo istnieć i pomogą zmienić świat. Czy to dobrze, czy źle? Dopóki nie dotrzemy do sedna twierdzeń Sokratesa dotyczących tego nowego problemu, te gigantyczne systemy pomocy będą tylko częściowo dobrodziejstwem, a często dużym utrapieniem. Przypomnijmy, że takie bazy danych zawierają jedynie podstawowe, elementarne fakty odnoszące się do konkretnego zagadnienia i nie zawierają zrozumienia, wniosków, osądów, koncepcji klasyfikacyjnych itp.

Aby jakiekolwiek stworzenia - ludzie lub maszyny - mogły się ze sobą komunikować, muszą mieć ten sam sposób myślenia. Ponieważ nie możemy zmienić sposobu myślenia ludzi, będziemy musieli zmienić go w maszynach. Musimy całkowicie przeprojektować wszystko, co programy robią podczas rozwiązywania problemu, a nie tylko sposób interakcji z użytkownikiem. Sposób przechowywania informacji w programie, tj. sposób przedstawienia rozwiązania problemu musi być dla człowieka zrozumiały i opisany za pomocą znanych mu już pojęć. Systemy eksperckie oparte na regułach wnioskowania są specjalnie zaprojektowane do radzenia sobie z pojęciami ludzkimi, zarówno gdy są one uzyskiwane od ekspertów w danej dziedzinie, jak i wtedy, gdy są wyjaśniane użytkownikowi. Jak na początek nie jest źle, ale jest jeszcze wiele do zrobienia, aby nawiązać komunikację między człowiekiem a maszyną w języku pojęć.

Jeśli podobne pomysły zostaną wykorzystane do rozwiązania problemów automatyzacji procesów produkcyjnych lub w innych systemach sterowania, wówczas taką automatyzację nazwiemy „miękką”. Zapotrzebowanie na nią stale rośnie, co pozwala przynajmniej częściowo zneutralizować nadmierną złożoność związaną ze sztywną automatyzacją. Obecnie najpilniejszą potrzebą społeczną nie jest rozszerzanie procesu automatyzacji, ale jego humanizacja. Oczywiście w przypadku prostych lub średnio złożonych zadań „nieprzezroczystość” systemów sterowania nie jest tak niebezpieczna i dlatego długo to znosiliśmy. Powiedzmy, że program alokacji zasobów robi to lepiej niż kierownik projektu. W takim razie, dlaczego miałby być ciekawy, jak ona to robi, lub kwestionować jej decyzje, jeśli dostanie to, czego chce? Niech to będzie „czarna skrzynka” w takim zakresie, w jakim jest to ustawione przez program.

Istnieją jednak inne zastosowania systemów informatycznych, w których niezbędna jest umiejętność „zajrzenia do wnętrza pudełka”. Na razie nie jest ich wiele, ponieważ procesy przetwarzania informacji muszą być jeszcze głęboko osadzone w coraz bardziej złożonych i odpowiedzialnych obszarach ludzkiej aktywności. Złożoność i odpowiedzialność to dwie niezależne cechy systemów, które skłaniają nas do nalegania, aby program działał w „ludzkich granicach”. Niektóre problemy są tak trudne, że ich rozwiązanie jest po prostu niemożliwe bez intelektualnego partnerstwa między człowiekiem a maszyną. Inne dotyczą spraw życia i śmierci, czy samej możliwości kierowania gospodarką.

Dzięki automatyzacji miękkiej system już na etapie projektowania jest dostosowywany do sposobu myślenia człowieka. Jeśli patrząc w przyszłość wyobrazimy sobie hordy robotów pracujących razem w naszych fabrykach, nieuchronnie nasuwa się pytanie: „Jak będzie przebiegać komunikacja między nimi? Przewodowo, za pomocą promieniowania podczerwonego lub sygnałów radiowych, czy też innymi kanałami niedostępnymi dla człowieka? Oczywiście lepiej byłoby wykonać to połączenie za pomocą syntezatora mowy, ponieważ pozwoliłoby to dyżurnemu usłyszeć, co się dzieje, a jak pokazała praktyka, jest to całkiem możliwe.

Plusy i minusy użytkowaniaSztuczna inteligencja w zarządzaniu

Trend na automatyzację fabryk i maszyn istnieje już od dawna. Z wyjątkiem jakiegoś specjalnego celu, nikt już nie myśli o wykonywaniu śrub na konwencjonalnej tokarce, gdzie tokarz musi obserwować ruch frezu i ręcznie go regulować. Obecnie produkcja śrub w dużych ilościach bez poważnej ingerencji człowieka jest powszechnym zadaniem zwykłej maszyny do cięcia śrub. Chociaż ta maszyna nie wykorzystuje konkretnie ani procesu sprzężenia zwrotnego, ani lampy próżniowej, ta maszyna osiąga prawie te same cele. Sprzężenie zwrotne i lampa próżniowa umożliwiły nie sporadyczną budowę oddzielnych mechanizmów automatycznych, ale ogólną politykę tworzenia mechanizmów automatycznych najróżniejszych typów. Rozwiązując ten problem, zasady takich urządzeń zostały wzmocnione przez nasze teoretyczne badanie komunikacji, które w pełni uwzględnia możliwości komunikacji między maszyną a maszyną. To właśnie splot okoliczności sprawia, że ​​nowa era automatyzacji jest dziś możliwa.

Istniejąca obecnie technologia przemysłowa obejmuje całość wyników pierwszej rewolucji przemysłowej, wraz z wieloma wynalazkami, które obecnie uważamy za prekursorów drugiej rewolucji przemysłowej. Jakie mogą być dokładne granice między tymi dwiema rewolucjami, jest zbyt wcześnie, aby powiedzieć. W swojej potencjalności, lampa próżniowa zdecydowanie należy do rewolucji przemysłowej, innej niż epoka energetyczna; a jednak dopiero obecnie prawdziwe znaczenie wynalezienia lampy próżniowej jest wystarczająco zrozumiałe, aby umieścić obecne stulecie w nowej, drugiej rewolucji przemysłowej.

Namalujmy obraz doskonalszej epoki - epoki automatyzacji. Zastanówmy się na przykład, jak będzie wyglądać fabryka samochodów przyszłości, a w szczególności linia montażowa, która jest częścią fabryki samochodów zużywającą najwięcej pracy ludzkiej, sekwencją operacji będzie sterować urządzenie jak nowoczesny szybki komputer. Całą matematykę można sprowadzić do rozwiązania szeregu problemów czysto logicznych. Jeśli taki kawałek matematyki jest zawarty w maszynie, wówczas ta maszyna będzie urządzeniem obliczeniowym w zwykłym znaczeniu. Jednak taki komputer, oprócz rozwiązywania zwykłych problemów matematycznych, będzie w stanie rozwiązać logiczny problem dystrybucji kanałami szeregu rozkazów dotyczących operacji matematycznych. Dlatego takie urządzenie będzie zawierało, podobnie jak nowoczesne szybkie komputery, co najmniej jeden duży węzeł, który jest przeznaczony do wykonywania czysto logicznych operacji.

Instrukcje do takiej maszyny - mówię tu również o obecnej praktyce - podaje urządzenie, które nazywamy cewką programującą. Rozkazy wydawane maszynie mogą być do niej wysyłane przez cewkę programową, której charakter i zakres instrukcji jest całkowicie z góry określony. Możliwe jest również, że realne zdarzenia losowe, które maszyna napotyka podczas wykonywania swoich zadań, mogą zostać przeniesione jako podstawa do dalszej regulacji na nową taśmę kontrolną stworzoną przez samą maszynę lub na modyfikację starej taśmy kontrolnej.

Można by sądzić, że obecne wysokie koszty maszyn liczących wykluczają ich zastosowanie w procesach przemysłowych, a co więcej, czułość operacji wymagana w ich konstrukcji i zmienność ich funkcji wykluczają metody produkcji masowej w konstrukcji tych maszyn. Żadne z tych stwierdzeń nie jest poprawne. Po pierwsze, ogromne komputery używane obecnie do bardzo złożonych prac matematycznych kosztują około setek tysięcy dolarów. Nawet ta cena nie byłaby nieosiągalna dla maszyny sterującej w naprawdę dużym zakładzie, ale i tak jest za droga.

Nowoczesne maszyny obliczeniowe rozwijają się tak szybko, że praktycznie każda projektowana maszyna to nowy model. Innymi słowy, większość tych pozornie wygórowanych kosztów idzie na opłacenie nowych prac projektowych i produkcji nowych części, które wymagają bardzo wysoko wykwalifikowanej siły roboczej i najdroższych warunków. Jeśli zatem cena i model jednego z tych komputerów byłyby ustalone, a model ten byłby używany przez dziesiątki, to jest wysoce wątpliwe, aby jego cena była czymś więcej niż sumą rzędu dziesiątek tysięcy dolarów. Taka mniejsza maszyna, nie nadająca się do rozwiązywania najtrudniejszych problemów obliczeniowych, ale mimo to całkiem nadająca się do prowadzenia zakładu, kosztowałaby prawdopodobnie nie więcej niż kilka tysięcy dolarów w jakiejkolwiek produkcji na umiarkowaną skalę.

Rozważmy teraz problem masowej produkcji komputerów. Jeśli dla masowej produkcji jedyną korzystną okazją byłaby masowa produkcja standardowych maszyn, to jest całkiem jasne, że przez dłuższy czas najlepsze, na co moglibyśmy liczyć, to produkcja na umiarkowaną skalę. Jednak w każdej maszynie szczegóły są w większości powtarzane dość często. Dotyczy to zarówno urządzenia pamięci, jak i aparatu logicznego oraz jednostki arytmetycznej. Zatem produkcja zaledwie kilkudziesięciu maszyn jest potencjalnie masową produkcją części i ma ekonomiczne zalety produkcji masowej.

Wydawałoby się jednak, że czułość maszyny powinna oznaczać konieczność stworzenia nowego, specjalnego modelu dla każdego indywidualnego zadania. To również jest niepoprawne. Nawet przy zgrubnym podobieństwie rodzaju operacji matematycznych i logicznych, które są wymagane od węzłów matematycznych i logicznych maszyny, ogólne wykonanie zadań maszyny jest regulowane przez cewkę programu lub przynajmniej oryginalną cewkę programu. Wykonanie cewki programowej takiej maszyny jest bardzo trudnym zadaniem dla wysoko wykwalifikowanego specjalisty; jest to jednak czynność wykonywana raz na zawsze iw przypadku modyfikacji maszyny na potrzeby nowej instalacji przemysłowej wystarczy ją tylko częściowo powtórzyć. W ten sposób koszt takiego wykwalifikowanego technika będzie rozłożony na ogromną ilość produkcji i tak naprawdę nie będzie czynnikiem wpływającym na użytkowanie maszyny.

Urządzenie komputerowe jest centrum automatycznej fabryki, ale nigdy nie będzie reprezentować całej fabryki. Z drugiej strony otrzymuje szczegółowe instrukcje od elementów, które mają charakter narządów zmysłów, takich jak fotokomórki, kondensatory do określania grubości rolek papieru, termometry, mierniki stężenia wodoru oraz od ogólnie tworzonych obecnie aparatów przez producentów przyrządów firmy do ręcznej kontroli procesów produkcyjnych. Urządzenia te są już ustawione w taki sposób, że przekazują wskazania do poszczególnych słupków za pomocą energii elektrycznej. Aby umożliwić tym urządzeniom przesyłanie informacji do automatycznego, szybkiego komputera, wszystko, czego potrzeba, to urządzenie odczytujące, które przekształca pozycję lub skalę w postać numerów seryjnych. Takie urządzenie już istnieje i nie przedstawia większych trudności ani w zasadzie, ani w szczegółach konstrukcyjnych. Problem narządu zmysłu nie jest nowy, a już został skutecznie rozwiązany.

System kontroli musi zawierać, oprócz tych narządów zmysłów, efektory lub komponenty, które działają na świat zewnętrzny. Niektóre typy tych efektorów są nam już znane, jak silniki z zaworami sterującymi, sprzęgła elektryczne, itp. Aby dokładniej odwzorować funkcje ludzkiej ręki, uzupełnione funkcjami ludzkiego oka, niektóre z tych efektorów ciągle muszą zostać wynaleziony. Podczas obróbki ram samochodowych doskonale możliwe jest pozostawienie gładkich powierzchni na metalowych konsolach jako punktów odniesienia. Mechanizm fotoelektryczny, zasilany na przykład punktami świetlnymi, może zbliżyć narzędzie robocze - czy to wiertarkę, młotek do nitowania, czy jakiekolwiek potrzebne nam narzędzie - w bliskiej odległości od tych powierzchni. Ostateczne zamocowanie pozycji może unieruchomić narzędzie względem powierzchni referencyjnych i tym samym ustanowić styk ścisły, ale nie na tyle mocny, aby spowodować zniszczenie tych powierzchni. To tylko jeden ze sposobów na wykonanie zadania. Każdy wykwalifikowany inżynier może wymyślić tuzin więcej.

Oczywiście zakładamy, że instrumenty pełniące rolę narządów zmysłów rejestrują nie tylko początkowy stan dzieła, ale także rezultat wszystkich wcześniejszych procesów. W ten sposób maszyna może wykonywać operacje sprzężenia zwrotnego: albo w pełni opanowane operacje prostego typu, albo operacje obejmujące bardziej złożone procesy rozpoznawania, regulowane przez takie centralne sterowanie, jak urządzenie logiczne lub matematyczne. Innymi słowy, wszechogarniające urządzenie kontrolne będzie odpowiadać zwierzęciu jako całości z narządami zmysłów, efektorami i proprioreceptorami, a nie pojedynczemu mózgowi, którego sprawność i praktyczna wiedza zależą od naszej interwencji, jak ma to miejsce w przypadku superszybki komputer.

Tempo, w jakim te nowe urządzenia mogą być wprowadzane do przemysłu, będzie się znacznie różnić w zależności od branży. Zautomatyzowane maszyny wykonujące mniej więcej te same funkcje są już szeroko stosowane w branżach o ciągłych procesach, takich jak fabryki konserw, huty, a zwłaszcza fabryki drutu i blachy białej. Znane są również w papierniach, które również pracują w kolejce. Innym obszarem, w którym potrzebne są automaty, są tego rodzaju fabryki, w których produkcja jest zbyt niebezpieczna, aby znaczna liczba pracowników mogła ryzykować życie podczas jej obsługi, a wypadek może być tak poważny i kosztowny, że jego możliwość musi być przewidziana w naprzód, a nie pozostawione pochopnej ocenie jakiejś osoby na miejscu wypadku. Jeśli możliwe jest wcześniejsze przemyślenie linii zachowania, można ją zastosować do taśmy programu, która będzie sterować zachowaniem zgodnie z odczytami urządzenia. Innymi słowy, takie instalacje muszą działać w trybie zbliżonym do trybu blokowania i pracy rozjazdów kolejowej kontroli drogowej. Taki reżim jest już ustanowiony w rafineriach, w wielu innych zakładach chemicznych oraz w obchodzeniu się z tego rodzaju niebezpiecznymi materiałami, jakie napotyka się podczas działania energii atomowej.

Wspomnieliśmy już o linii montażowej jako obszarze zastosowania tego rodzaju techniki. Na linii montażowej, podobnie jak w zakładzie chemicznym czy papierni z procesami ciągłymi, konieczne jest przeprowadzenie pewnej statystycznej kontroli jakości produktu. Ta kontrola zależy od procesu testowania. Naukowcy opracowali teraz te procesy pobierania próbek, opracowując techniki zwane analizą sekwencyjną, w których pobieranie próbek nie jest już wykonywane jako całość, ale jest procesem ciągłym, zachodzącym wraz z produkcją. W konsekwencji te procesy, które można wykonać za pomocą techniki tak wystandaryzowanej, że można ją przenieść na statystyka, który nie rozumie stojącej za nimi logiki, mogą być również wykonywane przez komputer. Innymi słowy, poza wyższymi poziomami obsługi, maszyna może również zajmować się codzienną kontrolą statystyczną, jak również procesem produkcyjnym.

Normalnie w fabrykach procedura księgowania jest niezależna od produkcji, ale ponieważ dane tego księgowania pochodzą z maszyny lub z linii montażowej, mogą być przesyłane bezpośrednio do komputera. Inne dane mogą być od czasu do czasu wprowadzane do komputera przez operatora, ale większość prac biurowych można wykonywać mechanicznie, a ludziom pozostawia się tylko nadzwyczajne informacje, takie jak korespondencja zewnętrzna. Jednak nawet większość korespondencji zewnętrznej może być odbierana od korespondentów na kartach perforowanych lub drukowana na kartach perforowanych przez pracownika o bardzo niskich kwalifikacjach. Od tego etapu wszystkie procesy mogą być wykonywane przez maszynę. Ta mechanizacja może dotyczyć również znacznej części bibliotecznego zasobu archiwalnego przedsiębiorstwa przemysłowego.

Innymi słowy, maszyna nie preferuje pracy fizycznej ani biurowej. Tak więc możliwe obszary, w które nowa rewolucja przemysłowa może przeniknąć, są bardzo szerokie i obejmują całą pracę decyzyjną niskiego szczebla, podobnie jak praca wyparta przez maszynę poprzedniej rewolucji przemysłowej obejmowała każdy aspekt ludzka energia. Oczywiście, niektóre zawody nie zostaną dotknięte nową rewolucją przemysłową, albo dlatego, że nowe maszyny sterujące nie są opłacalne w tak nieistotnych gałęziach przemysłu, które nie są w stanie ponieść dużych kosztów kapitałowych z tym związanych, albo dlatego, że praca wielu specjalistów jest tak różnorodny, że prawie do każdego zadania potrzebne będą nowe cewki programowe. Nie potrafię sobie wyobrazić automatycznych maszyn, takich jak decydenci, używanych w sklepach spożywczych lub warsztatach, chociaż bardzo wyraźnie mogę sobie wyobrazić użycie tego sprzętu przez hurtownię spożywczą i producenta samochodów. Robotnik rolny, chociaż w jego produkcji zaczynają zakorzeniać się maszyny automatyczne, jest również chroniony przed ich całkowitą dominacją przez rozmiar ziemi, którą ma uprawiać, przez zmienność plonów, które musi uprawiać, przez specjalne warunki pogoda i tym podobne, z którymi musi się zmierzyć. . Tam, gdzie można zastosować takie maszyny, nie jest nieprawdopodobne, że maszyny decyzyjne będą w pewnym stopniu używane.

Oczywiście wprowadzenie tych nowych urządzeń i ramy czasowe, w których można spodziewać się ich wdrożenia, to głównie kwestie ekonomiczne, których rozpatrywanie nie jest celem pracy kursu. Jeśli nie dojdzie do gwałtownych zmian politycznych lub kolejnej wielkiej wojny, minie dziesięć do dwudziestu lat, zanim nowe maszyny zajmą należne im miejsce.

Bardzo ważną kwestią jest analiza konsekwencji – ekonomicznych i społecznych.

Przede wszystkim możemy spodziewać się gwałtownego spadku i ostatecznego ustania popytu na tego rodzaju robotników fabrycznych, którzy wykonują wyłącznie monotonne prace. W ostatecznym rozrachunku eliminacja skrajnie nieciekawych monotonnych zadań lekcyjnych może być korzystna i służyć jako źródło czasu wolnego niezbędnego do wszechstronnego rozwoju kulturalnego człowieka. Ale może to również prowadzić do tak samo niskiej wartości i zgubnych skutków w dziedzinie kultury, jakie w większości uzyskano z radia i kina.

Tak czy inaczej, okres przejściowy dla wprowadzenia tych nowych środków, zwłaszcza jeśli nastąpi natychmiast, jak można się spodziewać w przypadku nowej wojny, spowoduje natychmiastowy okres przejściowy katastrofalnego kryzysu. Istnieje wiele doświadczeń pokazujących, co przemysłowcy myślą o nowym potencjale przemysłowym. Cała ich propaganda sprowadza się do tego, że wprowadzanie nowych technologii nie powinno być traktowane jako sprawa rządu, ale powinno być pozostawione każdemu przedsiębiorcy, który chce w tę technologię inwestować. Wiemy też, że przemysłowców trudno powstrzymać, jeśli chodzi o wyciskanie z przemysłu wszelkich zysków, jakie można z niego wydobyć, aby społeczeństwo zadowolić się okruchami.

W tych warunkach przemysł będzie nasycany nowymi mechanizmami tylko w takim stopniu, w jakim oczywiste jest, że przyniosą one natychmiastowy zysk, niezależnie od przyszłych szkód, jakie mogą wyrządzić. Będziemy świadkami procesu podobnego do procesu energii atomowej, w którym wykorzystanie energii atomowej do budowy bomb zagroziło bardzo pilnym perspektywom wykorzystania energii atomowej w przyszłości w celu zastąpienia naszych rezerw ropy i węgla, które przez stulecia, jeśli nie od dziesięcioleci, całkowicie wyczerpany. Należy pamiętać, że produkcja bomb atomowych nie konkuruje z firmami produkującymi energię.

Podobne dokumenty

    Czy sztuczna inteligencja na tym poziomie rozwoju technologii i technologii może przewyższyć ludzką inteligencję. Czy osoba po kontakcie może rozpoznać sztuczną inteligencję. Główne możliwości praktycznego zastosowania sztucznej inteligencji.

    prezentacja, dodano 03.04.2013

    Sztuczna inteligencja to kierunek naukowy związany z maszynowym modelowaniem funkcji intelektualnych człowieka. Cechy sztucznej inteligencji Rozwój sztucznej inteligencji, obiecujące kierunki jej badań i modelowania.

    streszczenie, dodano 18.11.2010

    Podejście agentowe do badania sztucznej inteligencji. Modelowanie rozumowania, przetwarzanie języka naturalnego, uczenie maszynowe, robotyka, rozpoznawanie mowy. Nowoczesna sztuczna inteligencja. Przeprowadzanie testu Turinga.

    test, dodano 03.10.2015

    Historia rozwoju sztucznej inteligencji za granicą, w Rosji iw Republice Kazachstanu. Opracowanie projektu skutecznego wdrożenia i adaptacji sztucznej inteligencji w społeczeństwie ludzkim. Integracja sztucznego z naturalnym.

    praca naukowa, dodano 23.12.2014

    Istota terminu „sztuczna inteligencja”; historię jej rozwoju. Nauka i technika tworzenia inteligentnych maszyn i programów komputerowych. Wyzwanie związane z wykorzystaniem komputerów do zrozumienia ludzkiej inteligencji. Analiza, synteza i rozumienie tekstów.

    praca dyplomowa, dodano 17.06.2013

    Zjawisko myślenia. Stworzenie sztucznej inteligencji. Podejście mechaniczne, elektroniczne, cybernetyczne, neuronowe. Pojawienie się perceptronu. Sztuczna inteligencja jest przykładem integracji wielu dziedzin nauki.

    streszczenie, dodano 20.05.2003

    Obszary działalności człowieka, w których można zastosować sztuczną inteligencję. Rozwiązywanie problemów sztucznej inteligencji w informatyce z wykorzystaniem projektowania baz wiedzy i systemów ekspertowych. Automatyczne dowodzenie twierdzeń.

    praca semestralna, dodano 29.08.2013

    Historyczny zarys rozwoju prac w dziedzinie sztucznej inteligencji. Tworzenie algorytmów i oprogramowania dla komputerów, które pozwala rozwiązywać problemy intelektualne nie gorsze od człowieka. Od gier logicznych po diagnostykę medyczną.

    streszczenie, dodano 26.10.2009

    Badanie problemu sztucznej inteligencji. Proces przetwarzania informacji w ludzkim mózgu. Rozszyfrowanie kodów mózgowych zjawisk subiektywnej rzeczywistości. Inteligencja naturalna jako fakt, który ma subiektywną rzeczywistość z zasadą niezmienności.

    streszczenie, dodano 04.12.2011

    Komponenty i architektura inteligentnego agenta, jego uzupełnienie o narzędzia do nauki. Różne podejścia do tworzenia sztucznej inteligencji, perspektywy jej rozwoju. Etyczne i moralne implikacje rozwoju inteligentnych maszyn i programów.



Podobne artykuły