W najbliższej przyszłości nie powstanie raczej humanoidalny cyborg, z którym będziemy rozmawiać jak z człowiekiem, ale nowa technologia wymusi całkowite przeprojektowanie interfejsów.

– Lepiej radzimy sobie z budową maszyn, które uczą się na podstawie danych – stwierdził Jeremy Wyatt, profesor robotyki i sztucznej inteligencji na Uniwersytecie Birmingham, na niedawnym panelu dyskusyjnym dotyczącym zależności między ludźmi a sztuczną inteligencją. – Lepiej idzie nam projektowanie sztucznej inteligencji pod kątem konkretnych zadań. Istnieje już »ekologia maszyn«, a każda z nich będzie dysponować małym zakresem autonomii w zakresie korzystania z uczenia maszynowego do wykonywania określonego zadania. Wyatt porównał różne urządzenia korzystające ze sztucznej inteligencji do lasu deszczowego, w którym tysiące gatunków przystosowują się do otoczenia i zajmują się różnymi zadaniami: – Ze sztuczną inteligencją stworzymy zoo, a nie człowieka.

Interakcja między człowiekiem i maszyną może odgrywać kluczową rolę we wprowadzaniu nowych technologii. Wyatt zilustrował to na przykładzie wirtualnego zwierzątka Tamagotchi, „interakcja z którym była niezwykle uzależniająca dla wielu osób”, oraz Clippy’ego, znienawidzonego asystenta Microsoftu w kształcie spinacza do papieru. Udoskonalenie interakcji między człowiekiem i systemami sztucznej inteligencji będzie kluczowa dla firm, gdy z technologii tej będzie korzystać coraz więcej urządzeń, w tym pojazdy autonomiczne.

Jak podkreślał biorący udział w dyskusji Sam Vincent (współtwórca, scenarzysta i producent serialu „Humans”), mamy niezwykłą zdolność do antropomorfizacji. Chociaż naturalne jest przypisywanie ludzkich cech maszynom, w szczególności przejawiającym zdolności podobne do naszych (jak np. mowa), w przyszłości interfejsy będą musiały przejść diametralne zmiany.

Sztuczna inteligencja jest przyszłością, ale minie trochę czasu, zanim zostanie zaakceptowana przez społeczeństwo. Według ankiety przeprowadzonej przez Royal Society Machine Learning Working Group tylko 9% pytanych zna pojęcie „uczenie maszynowe” – powiedziała Sabine Hauert, członek grupy, badacz i wykładowca na Uniwersytecie w Bristolu* i Bristol Robotics Laboratory. Ankieta wykazała, że ludzie są pozytywnie nastawieni do pomocnych systemów sztucznej inteligencji, ale mają obawy związane z zaufaniem i prywatnością. – Niezwykle ważna jest wiedza o tym, czego ludzie oczekują – a czego nie – od technologii – stwierdziła Hauert. Chociaż ponure historie science-fiction pokroju „Terminatora” oraz ostrzeżenia wybitnych ekspertów rodzą obawy związane z możliwymi zagrożeniami, jakie niesie ze sobą sztuczna inteligencja, czy naprawdę powinniśmy się jej bać?

– Nieufność jest w porządku, strach już nie – powiedział Chris Feltham, Industry Technical Specialist w firmie Intel. – Powinniśmy mieć odpowiednie narzędzia kontroli – ważne jest dostarczanie informacji i dbanie o prywatność.

Eksperci zgodnie twierdzą, że osobisty kontakt z nową technologią i robotami opartymi o sztuczną inteligencję będzie odgrywać kluczową rolę w akceptacji tej technologii. – Doświadczenie będzie najlepszym nauczycielem – mówi Wyatt. Chociaż uczenie maszynowe i sztuczna inteligencja nie są jeszcze powszechnie rozumiane i akceptowane, ich użycie na wiele innowacyjnych sposobów służy poprawie jakości życia. Przykładem może tu być Center for Missing and Exploited Children, które używa sztucznej inteligencji firmy Intel, aby przyspieszyć poszukiwania zagrożonych dzieci.

Organizacja dostaje rocznie około 8 milionów zawiadomień, ale ma tylko 25 analityków. Przebrnięcie przez otrzymywane dane może zająć mnóstwo czasu, a podjęcie działań po odebraniu ważnej wskazówki następuje nawet po kilku tygodniach. – Do walki z tym problemem użyto sztucznej inteligencji, co skróciło czas oczekiwania z 30 dni do jednej doby – wyjaśnił Feltham. – Ponieważ ten system może mieć inne zastosowania, na przykład rozpoznawanie obrazów, organizacja może korzystać z nowych źródeł danych i nauczyć sztuczną inteligencję przetwarzania zdjęć ze stron internetowych.

Przygotowanie na innowacje w zakresie sztucznej inteligencji jest ważne, ale to przejście nie nastąpi z dnia na dzień. – Duża część tej technologii będzie wprowadzana stopniowo – stwierdził Feltham, porównując proces do implementacji technologii pojazdów autonomicznych. SAE (Stowarzyszenie Inżynierów Motoryzacji) ma pięciostopniową skalę opisującą każdy poziom technologii autonomicznej, gdzie 0 oznacza pełną odpowiedzialność człowieka, a 5 to całkowita automatyzacja. Podobny system można zastosować w odniesieniu do wprowadzania sztucznej inteligencji.

– Chciałbym, żeby ta technologia była wszechobecna i pomagała każdemu – powiedział Feltham. Vincent twierdzi, że potencjał sztucznej inteligencji tkwi w interpretacji dużej ilości danych: – Byłoby rewelacyjnie, gdyby te narzędzia potrafiły analizować i interpretować dane na wielką skalę, jak globalna ekonomia czy klimat, a następnie podpowiadały, jak nimi zarządzać. Jest jednak pesymistą, jeśli chodzi o reakcję człowieka na rady udzielane przez maszynę. – Wyobrażam sobie sytuację, w której każemy maszynie rozwiązać skomplikowany ludzki problem, ale ignorujemy jej zalecenia, ponieważ nam nie odpowiadają. Tak czy inaczej będzie to fascynujące doświadczenie.

źródło: informacja prasowa/Intel

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj