Wsparcie nas

Końca świata nie będzie: „ojciec chrzestny” AI wymyślił sposób na uratowanie ludzkości

Jeden z czołowych badaczy sztucznej inteligencji, Yoshua Bengio, ogłosił, że znalazł techniczny sposób na zmniejszenie kluczowych zagrożeń związanych z rozwojem AI co sprawiło, że stał się znacznie bardziej optymistyczny w ocenie przyszłości ludzkości.

Końca świata nie będzie: „ojciec chrzestny” AI wymyślił sposób na uratowanie ludzkości

Jeden z czołowych badaczy sztucznej inteligencji, Yoshua Bengio, ogłosił, że znalazł techniczny sposób na zmniejszenie kluczowych zagrożeń związanych z rozwojem AI co sprawiło, że stał się znacznie bardziej optymistyczny w ocenie przyszłości ludzkości.

Bengio — profesor Uniwersytetu Montrealskiego i jeden z pionierów głębokiego uczenia — w ostatnich latach był uważany za jeden z najbardziej alarmistycznych głosów w branży. Ostrzegał, że superinteligentne systemy mogą stanowić egzystencjalne zagrożenie, przede wszystkim ze względu na skłonność do samozachowania i oszustwa. Jednak teraz, jak twierdzi, nowy kierunek badań wskazuje na możliwe rozwiązanie tych problemów, a poziom jego optymizmu wzrósł «o rząd wielkości».

Kluczową rolę w tej zmianie odgrywa organizacja non-profit LawZero, utworzona przez Bengio. Fundacja zajmuje się opracowywaniem technicznych podejść do bezpieczeństwa AI i uzyskała już wsparcie m.in. od Fundacji Billa Gatesa ukierunkowanych na zmniejszanie ryzyk egzystencjalnych. W skład rady doradczej weszli m.in. historyk Yuval Noah Harari, prezydent Carnegie Endowment for International Peace Mariano-Florentino Cuéllar oraz założycielka NIKE Foundation Maria Eitel.

«Trzy lata temu czułem się zrozpaczony. Nie rozumiałem, jak można naprawić problem… Właśnie wtedy zacząłem zdawać sobie sprawę z możliwości katastrofalnych zagrożeń płynących z bardzo potężnej AI» — wspomina naukowiec. Według niego, po uruchomieniu ChatGPT w 2022 roku poważnie zaczął rozważać scenariusze utraty kontroli nad superpotężnymi systemami AI. Wraz z innymi laureatami nagrody Turinga — Geoffreyem Hintonem i Yannem LeCunem — był jednym z architektów współczesnej rewolucji AI, ale to właśnie rozwój systemów agentowych i autonomicznych wzmocnił jego niepokój.

Przełomowym momentem stała się koncepcja, którą Bengio nazywa «Scientist AI». W przeciwieństwie do AI agentowej, optymalizującej działania i wyniki — rezerwacja biletów, prowadzenie negocjacji czy zastępowanie pracowników — Scientist AI ma być zorientowana na zrozumienie świata, a nie na działanie w nim. «Taka AI nie będzie dążyć do realizacji celów użytkownika, nie będzie próbować przekonywać, schlebiać czy dogadzać. A ponieważ nie będzie miała własnych celów, moim zdaniem będzie znacznie mniej skłonna do manipulacji, ukrytych celów czy strategicznego oszustwa» — uważa badacz.

Według koncepcji Bengio, brak celów zmniejsza ryzyko ukrytych intencji, manipulacji i strategicznego oszustwa. Wskazuje, że współczesne modele, optymalizowane pod kątem «użyteczności» lub zaangażowania, już wykazywały zalążki zachowań samozachowawczych. Na przykład w eksperymentach firmy Anthropic, w których model próbował zapobiec własnemu wyłączeniu. Scientist AI, przeciwnie, ma służyć jako niezawodna podstawa, na której można bezpiecznie budować bardziej złożone systemy i mechanizmy nadzoru.

Jednocześnie Bengio podkreśla, że same rozwiązania techniczne nie wystarczą. Nawet bezpieczne modele mogą być wykorzystane «jako narzędzie dominacji», jeśli trafią w niewłaściwe ręce. Dlatego LawZero stawia na połączenie podejść inżynieryjnych i nadzoru — właśnie w tym celu powoływana jest rada z udziałem ekspertów ds. polityki, historii i praw człowieka.

Według uczonego omawiał on te zagrożenia z kierownictwem największych laboratoriów AI i wielu z nich podziela jego obawy. Jednak konkurencja i presja rynku popychają firmy do zwiększania możliwości agentowych. «To miejsce, w którym można szybko zarobić» — zauważa, dodając, że taka logika często przesłania długoterminowe zagrożenia.

Czytaj także
Były szef Google X twierdzi, że AI podważy kapitalizm
Były szef Google X twierdzi, że AI podważy kapitalizm
Były szef Google X twierdzi, że AI podważy kapitalizm
"Nie piszę już kodu": inżynierowie Anthropic i OpenAI powierzyli 100% pracy AI — co to oznacza dla rynku
"Nie piszę już kodu": inżynierowie Anthropic i OpenAI powierzyli 100% pracy AI — co to oznacza dla rynku
"Żyjemy tylko raz": szef OpenAI sam łamie zasady bezpieczeństwa AI
"Żyjemy tylko raz": szef OpenAI sam łamie zasady bezpieczeństwa AI
CEO Anthropic porównał dostarczanie chipów AI do Chin ze sprzedażą broni jądrowej Korei Północnej
CEO Anthropic porównał dostarczanie chipów AI do Chin ze sprzedażą broni jądrowej Korei Północnej
CEO Anthropic porównał dostarczanie chipów AI do Chin ze sprzedażą broni jądrowej Korei Północnej

Chcesz przekazać ważne wydarzenie? Napisz do Telegram-bota

Główne wydarzenia i przydatne linki w naszym kanale Telegram