Końca świata nie będzie: „ojciec chrzestny” AI wymyślił sposób na uratowanie ludzkości
Jeden z czołowych badaczy sztucznej inteligencji, Yoshua Bengio, ogłosił, że znalazł techniczny sposób na zmniejszenie kluczowych zagrożeń związanych z rozwojem AI co sprawiło, że stał się znacznie bardziej optymistyczny w ocenie przyszłości ludzkości.
Jeden z czołowych badaczy sztucznej inteligencji, Yoshua Bengio, ogłosił, że znalazł techniczny sposób na zmniejszenie kluczowych zagrożeń związanych z rozwojem AI co sprawiło, że stał się znacznie bardziej optymistyczny w ocenie przyszłości ludzkości.
Bengio — profesor Uniwersytetu Montrealskiego i jeden z pionierów głębokiego uczenia — w ostatnich latach był uważany za jeden z najbardziej alarmistycznych głosów w branży. Ostrzegał, że superinteligentne systemy mogą stanowić egzystencjalne zagrożenie, przede wszystkim ze względu na skłonność do samozachowania i oszustwa. Jednak teraz, jak twierdzi, nowy kierunek badań wskazuje na możliwe rozwiązanie tych problemów, a poziom jego optymizmu wzrósł «o rząd wielkości».
Kluczową rolę w tej zmianie odgrywa organizacja non-profit LawZero, utworzona przez Bengio. Fundacja zajmuje się opracowywaniem technicznych podejść do bezpieczeństwa AI i uzyskała już wsparcie m.in. od Fundacji Billa Gatesa ukierunkowanych na zmniejszanie ryzyk egzystencjalnych. W skład rady doradczej weszli m.in. historyk Yuval Noah Harari, prezydent Carnegie Endowment for International Peace Mariano-Florentino Cuéllar oraz założycielka NIKE Foundation Maria Eitel.
«Trzy lata temu czułem się zrozpaczony. Nie rozumiałem, jak można naprawić problem… Właśnie wtedy zacząłem zdawać sobie sprawę z możliwości katastrofalnych zagrożeń płynących z bardzo potężnej AI» — wspomina naukowiec. Według niego, po uruchomieniu ChatGPT w 2022 roku poważnie zaczął rozważać scenariusze utraty kontroli nad superpotężnymi systemami AI. Wraz z innymi laureatami nagrody Turinga — Geoffreyem Hintonem i Yannem LeCunem — był jednym z architektów współczesnej rewolucji AI, ale to właśnie rozwój systemów agentowych i autonomicznych wzmocnił jego niepokój.
Przełomowym momentem stała się koncepcja, którą Bengio nazywa «Scientist AI». W przeciwieństwie do AI agentowej, optymalizującej działania i wyniki — rezerwacja biletów, prowadzenie negocjacji czy zastępowanie pracowników — Scientist AI ma być zorientowana na zrozumienie świata, a nie na działanie w nim. «Taka AI nie będzie dążyć do realizacji celów użytkownika, nie będzie próbować przekonywać, schlebiać czy dogadzać. A ponieważ nie będzie miała własnych celów, moim zdaniem będzie znacznie mniej skłonna do manipulacji, ukrytych celów czy strategicznego oszustwa» — uważa badacz.
Według koncepcji Bengio, brak celów zmniejsza ryzyko ukrytych intencji, manipulacji i strategicznego oszustwa. Wskazuje, że współczesne modele, optymalizowane pod kątem «użyteczności» lub zaangażowania, już wykazywały zalążki zachowań samozachowawczych. Na przykład w eksperymentach firmy Anthropic, w których model próbował zapobiec własnemu wyłączeniu. Scientist AI, przeciwnie, ma służyć jako niezawodna podstawa, na której można bezpiecznie budować bardziej złożone systemy i mechanizmy nadzoru.
Jednocześnie Bengio podkreśla, że same rozwiązania techniczne nie wystarczą. Nawet bezpieczne modele mogą być wykorzystane «jako narzędzie dominacji», jeśli trafią w niewłaściwe ręce. Dlatego LawZero stawia na połączenie podejść inżynieryjnych i nadzoru — właśnie w tym celu powoływana jest rada z udziałem ekspertów ds. polityki, historii i praw człowieka.
Według uczonego omawiał on te zagrożenia z kierownictwem największych laboratoriów AI i wielu z nich podziela jego obawy. Jednak konkurencja i presja rynku popychają firmy do zwiększania możliwości agentowych. «To miejsce, w którym można szybko zarobić» — zauważa, dodając, że taka logika często przesłania długoterminowe zagrożenia.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.