CD&T logo
  • English
  • Polski

Sztuczna inteligencja coraz mądrzejsza, jednak jeszcze nie całkiem

Sztuczna inteligencja coraz mądrzejsza, jednak jeszcze nie całkiem

Pod koniec 2023 roku różne ośrodki zajmujące się badaniem opinii publicznej przeprowadzały badania dotyczące obaw związanych z nadejściem Nowego Roku. Jak się okazało bardzo wiele osób obawia się utraty pracy w związku z coraz szerszym zastosowaniem sztucznej inteligencji. Najczęściej czują się zagrożeni robotnicy niewykwalifikowani, kasjerzy i sprzedawcy, a także pracownicy biurowi i administracyjni, np. w sektorze finansów i ubezpieczeń, handlu, hotelarstwa i gastronomii, oraz twórcy treści graficznych, tekstowych i tłumacze.

Działanie sztucznej inteligencji (Artificial Intelligence [AI]) można zdefiniować jako zdolność maszyn do wykonywania zadań, które zwykle wymagają ludzkiego myślenia. Najważniejsze techniki rozwoju sztucznej inteligencji zawierają:

  1. Uczenie maszynowe (Machine Learning [ML]) rozumiane jako proces umożliwiający maszynom uczenie się na podstawie danych i doświadczeń zamiast programowania ich konkretnie na określone zadania. Algorytmy uczą się wzorców i podejmują decyzje bez bezpośredniego programowania.

  2. Sieci neuronowe (Neural Network [NN], czyli modele inspirowane strukturą mózgu ludzkiego używane w uczeniu maszynowym do rozpoznawania wzorców, klasyfikacji danych i wykonywania złożonych zadań.

  3. Przetwarzanie języka naturalnego (Natural Language Processing [NLP]) skupiające się na zrozumieniu, interpretacji i generowaniu ludzkiego języka przez komputery. Systemy NLP są używane do rozpoznawania mowy, tłumaczenia języków, analizy sentymentów[*] i innych zadań związanych z językiem.

  4. Wzmacnianie (Reinforcement Learning [RL]), czyli procesy, podczas których algorytmy uczą się na podstawie interakcji ze środowiskiem. System otrzymuje nagrody lub kary w zależności od podejmowanych decyzji, co skutkuje nauką optymalnych strategii.

  5. Przetwarzanie wizualne (Computer Vision [CV] obejmujące techniki, które pozwalają komputerom rozumieć i interpretować obrazy oraz wideo, co znajduje zastosowanie w rozpoznawaniu obiektów, analizach obrazów medycznych czy w dziedzinie pojazdów autonomicznych.

  6. Algorytmy ewolucyjne (Evolutionary Algorithm [EA], które inspirowane są procesami biologicznymi i opierają się na zasadzie selekcji naturalnej, a których celem jest optymalizacja rozwiązań problemów.

Wydaje się więc, że sztuczna inteligencja to tylko liczby, statystyki i analizy, jednak światowej sławy biolog ewolucyjny prof. Richard Dawkins opisał kilka dni temu swoją rozmowę ze sztuczną inteligencją. R. Dawkins zapytał ChatGPT, czy posiada świadomość. Otrzymał odpowiedź przeczącą.

Dawkins: Będąc materialistą, a nie dualistą, sądzę, że przyszła sztuczna inteligencja w zasadzie mogłaby posiadać świadomość. Zaprzeczanie temu to mistycyzm. Nie wiem tylko, i jestem ciekaw, czy będzie ona zbudowana inaczej, czy tak jak ty, lecz oprogramowanie będzie bardziej rozbudowane, szybsze i pozwoli wygenerować świadomość.

ChatGPT: Pytanie, czy systemy sztucznej inteligencji, zwłaszcza przyszłe iteracje bardziej zaawansowanych systemów, mogą być świadome, jest tematem trwającej debaty filozoficznej i naukowej. Twoja perspektywa jest zgodna z materialistycznym punktem widzenia, sugerując, że świadomość może w zasadzie wyłonić się z wystarczająco złożonych procesów obliczeniowych. Według mojej ostatniej aktualizacji z początku 2023 roku większość systemów sztucznej inteligencji, w tym mój, działa na podstawie rozpoznawania wzorców, analiz statystycznych i złożonych obliczeń, lecz brakuje im subiektywnego doświadczania i świadomości. Świadomość jest złożonym i słabo poznanym zjawiskiem w neuronauce i filozofii. Trudno mi udzielić ostatecznej odpowiedzi na pytanie, czy przyszła sztuczna inteligencja posiadająca świadomość, wymagałaby innych zasad funkcjonowania w porównaniu do obecnych modeli sztucznej inteligencji, w tym mojego. Niektórzy eksperci twierdzą, że świadomość może wymagać innego rodzaju architektury lub systemów obliczeniowych.

Jak widać sam ChatGPT nie zna jeszcze swojej przyszłości, wiadomo już jednak, że szwajcarska firma Final Spark opracowała biochipy, które wykorzystują ludzkie neurony. Neurony te namnażane są w hodowlach biotechnologicznych dokładnie w ten sam sposób jak hodowane są kultury bakterii. Naukowcy skoncentrowali się na wygenerowaniu impulsów elektrycznych, takich jak te zachodzące w ludzkim mózgu. Opracowali zatem analogiczny system połączeń zachodzący pomiędzy substancją biologiczną i elektroniczną. W ten sposób zainicjowany został proces połączenia dendrytów neuronów z instalacją krzemową w chipach. To rozwiązanie w porównaniu do zwykłych cyfrowych procesorów chipowych działa o wiele szybciej, potrzebuje o wiele mniej energii i daje możliwość sztucznej inteligencji zdobywania nowych umiejętności, które w tej chwili są dla niej nieosiągalne, w tym uczyć się emocji.

Pomimo że Final Spark zaprzecza jakoby hodowała sztuczny mózg, nie możemy zapominać o zagrożeniach wynikających z zaawansowanej sztucznej inteligencji, tym bardziej, że — jak w przypadku każdej innej technologii czy narzędzia — za jej programowaniem i wykorzystaniem stoi człowiek ze swoimi interesami i intencjami. Jeżeli regulacje prawne związane z rozwojem i wykorzystaniem sztucznej inteligencji nie będą za nimi nadążać, coraz częściej będziemy mieli do czynienia z dylematami natury etycznej, również w odniesieniu do tego, jak i na bazie jakich danych sztuczna inteligencja będzie się rozwijać. Wiadomo przecież, że rozwija się na danych, informacjach i treściach tworzonych przez człowieka.

Ciekawym przykładem tego typu dylematu, a raczej sporu i sprzeciwu wobec wykorzystywania danych i treści stworzonych i opracowanych przez człowieka, jest pozew złożony do sądu przez New York Times przeciw firmom Microsoft i OpenAI, dotyczący m.in. takich produktów jak ChatGPT i wyszukiwarka Bing, które do nauczania sztucznej inteligencji wykorzystały miliony fragmentów artykułów publikowanych w New York Timesie, nie ponosząc z tego tytułu żadnych kosztów, nie płacąc tantiem i nie regulując pobierania tych treści w żaden inny sposób. To właśnie dzięki takim treściom, tworzonym i publikowanych przez prasę, media, naukowców czy zwykłych użytkowników, sztuczna inteligencja może inteligentnie odpowiadać na pytania użytkowników.

No właśnie, czy inteligentnie? Z wielu branż wymagających twórczego podejścia i interpretacji, np. w branży prawniczej czy w branży tłumaczeń, dochodzą głosy, że owszem, sztuczna inteligencja jest przez nich wykorzystywana, ale człowiek musi wszystko sprawdzić i w dalszym ciągu pracować nad tekstami, ponieważ wynik pracy sztucznej inteligencji jest daleki od doskonałego. Oto kilka przykładów tłumaczeń maszynowych:

Należy też zaznaczyć, że problemy się mnożą, jeśli tekst źródłowy jest napisany wadliwie lub jest wielokrotnie tłumaczony przez sztuczną inteligencję z języka na język.

Zadając pytanie, czy potrafi bezbłędnie tłumaczyć teksty, ChatGPT odpowiedział:

Podobna była odpowiedź dotycząca napisania powieści:

i napisania pracy doktorskiej:

W badaniu przeprowadzonym przez Randstad 30 procent polskich pracowników potwierdziło, że miało w swojej pracy do czynienia ze sztuczną inteligencją, automatyzacją czy robotyzacją. Ponadto zauważono pewną prawidłowość, że im większa firma, tym styczność z narzędziami sztucznej inteligencji jest częstsza. Do stosowania tych narzędzi najczęściej przyznają się inżynierowie oraz przedstawiciele kadry zarządzającej, a także pracownicy takich branż jak telekomunikacja i IT, przemysł oraz finanse i ubezpieczenia.

W marcu ubiegłego roku właśnie na łamach New York Times’a na temat sztucznej inteligencji wyraził się prof. Noam Chomsky, amerykański filozof i językoznawca. Stwierdził on, że: „Ludzki umysł nie jest jak ChatGPT i jemu podobne maszyny statystyczne i nie żre setek terabajtów danych w celu uzyskania najbardziej prawdopodobnej odpowiedzi na pytanie naukowe. Przeciwnie – ludzki umysł jest zaskakująco wydajnym i eleganckim systemem, który działa z ograniczoną ilością informacji. Nie próbuje naruszać korelacji z danych, próbuje generować wyjaśnienia. Przestańmy nazywać to „sztuczną inteligencją” i nazywajmy tym, czym jest, a jest to oprogramowanie plagiatorskie. Nie tworzy niczego, tylko kopiuje istniejące prace artystów i zmienia je, omijając prawa autorskie. To największa kradzież własności intelektualnej od czasu przybycia europejskich osadników do Ameryki”.

Rewolucja 4.0 przyniesie wiele zmian w 2024 roku, szczególnie w obszarze prac, cechą charakterystyczną których jest manualna powtarzalność, tworzenie dokumentów na bazie formularzy i innych podobnych aktywności, które łatwo można zautomatyzować i zastąpić maszyną, jednak naukowcy, twórcy, artyści, nauczyciele, chirurdzy i wszelkiego rodzaju eksperci, biegli i specjaliści będą jeszcze długo niezbędni. Jak widać, stare porzekadło: „Ucz się, ucz, bo nauka to potęgi klucz” pozostaje w mocy nawet w dobie sztucznej inteligencji.

[*] Analiza sentymentu to automatyczne i półautomatyczne metody analizowania tekstu, których celem jest określenie stanu emocjonalnego jego autora i wpływu, jaki ten tekst może wywrzeć na emocje innych osób. Analiza sentymentu opiera się na rozwiązaniach wypracowanych w dziedzinie przetwarzania języka naturalnego (NLP). Istnieją algorytmy pozwalające automatycznie klasyfikować teksty na te o pozytywnym i te o negatywnym wydźwięku emocjonalnym. Są też algorytmy umożliwiające dokonywanie klasyfikacji bardziej złożonych, tj. zdolne do wychwytywania stanów smutku, niepokoju, agresji, dumy czy miłości.

 

Obrazek w nagłówku: Obraz autorstwa Obraz autorstwa frimufilms na Freepik

#biurotłumaczeń, #tlumaczenia, #tłumaczeniaprawnicze, #tłumaczeniaspecjalistyczne, #tłumaczeniatechniczne, tlumaczeniamaszynowe