Od samego początku sztucznej inteligencji technologia ta była źródłem sporadycznych emocji, zmartwień i, oczywiście, postępu w różnych branżach. Od Skynetu po rewolucyjne możliwości diagnostyczne w opiece zdrowotnej, sztuczna inteligencja ma moc zarówno pobudzania wyobraźni, jak i napędzania innowacji.

Dla ogółu społeczeństwa dyskusje na temat sztucznej inteligencji zwykle koncentrują się na dziwacznych scenariuszach końca świata, obawach związanych z zabraniem nam pracy przez roboty lub ekscytacji tym, jak automatyzacja może przyspieszyć bardziej zrównoważony paradygmat między życiem zawodowym a prywatnym. Dla większości praktyczne zastosowanie i zrozumienie sztucznej inteligencji było w dużej mierze ukryte przed wzrokiem, co doprowadziło do nieporozumień wypełniających próżnię.

Najbardziej przekonujące przypadki użycia sztucznej inteligencji od dawna są domeną firm, rządów i gigantów technologicznych, ale wszystko to zmieniło się wraz z pojawieniem się ChatGPT OpenAI. Jest to pierwszy przykład dużego modelu językowego i jego możliwości generatywnych, które są szeroko dostępne do masowej konsumpcji. Stworzył plac zabaw AI, który jest natychmiast iw różnym stopniu przydatny w wielu kontekstach. Jednak najbardziej rażącym problemem, który istnieje od zarania sztucznej inteligencji, jest stronniczość.

W ostatnim czasie analitycy danych przyłożyli się do koła, szukając sposobów na usunięcie uprzedzeń z modeli, ze szczególnym naciskiem w branżach, w których wyniki modeli mogą niekorzystnie wpływać na klientów i użytkowników końcowych.

Na przykład, jeśli chodzi o usługi finansowe, od wielu lat stosuje się algorytmy podejmowania decyzji w celu przyspieszenia decyzji i ulepszenia usług. Ale w kontekście pożyczek „złe” lub „niewłaściwe” decyzje, które są wynikiem tendencyjnego modelu, mogą mieć katastrofalne konsekwencje dla osób fizycznych.

Wyeliminowanie uprzedzeń wymaga wielokierunkowej strategii, od upewnienia się, że zespoły zajmujące się nauką o danych i uczeniem maszynowym są reprezentatywne dla społeczności, dla których tworzą rozwiązania — lub przynajmniej rozumieją zasady budowania rzetelności w modelach — po zapewnienie, że modele są zrozumiałe.

ChatGPT rozpalił zbiorową wyobraźnię tego, co jest możliwe, gdy model jest szkolony na ogromnych ilościach danych, ale istnieją bardzo wyraźne przykłady tego, jak model dostarcza problematycznych wyników. ChatGPT to czarna skrzynka, więc wyników, które dostarcza, nie można w pełni wyjaśnić ani na nich polegać. Popełnia również błędy rzeczowe, z których niektóre są poważne, ponieważ uogólnia na podstawie typowych wzorców używanych w rozmowie, na przykład gdy jednostki z przekonaniem twierdzą, że opinia jest faktem.

Wraz z ewolucją sztucznej inteligencji będzie się zmieniać ogólne zrozumienie jej mocy i ograniczeń. Duże modele językowe są z natury czarnymi skrzynkami, co oznacza, że ​​przyszłość takich jak ChatGPT i jego użyteczność będzie zależeć od stworzenia solidnych metodologii wnioskowania, w jaki sposób i dlaczego te modele dotarły do ​​swoich wyników, co jest kolejnym etapem wyjaśnialnej sztucznej inteligencji.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj