- [AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길" - 더이에스지(theesg)뉴스
- "저는 50년간 AI를 연구해왔습니다. 지금이 처음으로 두려움을 느끼는 순간입니다."글 ㅣ 최봉혁 칼럼니스트 ㅣ 더이에스지뉴스 2018년 튜링상(컴퓨터 과학계의
[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"
"Od 50 lat zajmuję się badaniem AI. To pierwszy raz, kiedy się boję."
Tekst | Kolumnista Choi Bong-hyuk | The ESG News
Te słowa dr. Geoffreya Hintona, laureata Nagrody Turinga (Nobla w dziedzinie informatyki) w 2018 roku, to nie tylko narzekanie naukowca. To przerażające ostrzeżenie, że ludzkość stoi u progu nowego punktu zwrotnego cywilizacji, którego nigdy wcześniej nie doświadczyła. Jest tak, jakby utożsamiał swój obecny stan z sytuacją Oppenheimera, który po opracowaniu bomby atomowej ostrzegał ludzkość przed możliwością wojny nuklearnej, podkreślając, że przyszłość, która nas czeka, wcale nie jest opowieścią science fiction.
Jako kolumnista Choi Bong-hyuk jestem przekonany, że dyskusja na temat rozwoju technologii AI oraz wynikającej z niej odpowiedzialności etycznej i społecznej jest niezbędnym procesem, który odpowiada interesowi publicznemu naszego społeczeństwa. Dokładnie rozumiejąc ostrzeżenie dr. Hintona i wnikliwie analizując problemy, które porusza, oraz proponowane przez niego rozwiązania, uzyskamy wgląd, który pozwoli nam poprowadzić nadchodzącą erę AI w kierunku korzystnym dla ludzkości.
Rozdział 1. Ostrzeżenie „10–20% prawdopodobieństwa”_ Przyszłość ludzkości, która się zbliża
W wywiadzie dla BBC w maju 2024 roku dr Geoffrey Hinton szczegółowo opowiedział, jak szybko zmieniło się jego postrzeganie AI w ciągu zaledwie dwóch lat. „Jeszcze w 2022 roku myślałem, że ryzyko utraty kontroli nad AI nastąpi za 50 lat. Ale teraz, gdy pojawił się GPT-4, uważam, że prawdopodobieństwo, że superinteligencja wymknie się spod kontroli ludzkości w ciągu 10 lat, wynosi 10–20%.”
Ta liczba, 10–20%, może wydawać się statystycznie niewielka, ale jej znaczenie wcale nie jest błahe. W kwestii, od której zależy przetrwanie ludzkości, 10–20% oznacza „zagrożenie, które może się urzeczywistnić”, a nie „możliwość”. To tak, jakby prawdopodobieństwo katastrofy lotniczej wynosiło mniej niż 0,0001%, a my i tak inwestujemy we wszystko, co związane z bezpieczeństwem. Dr Hinton wyjaśnia, że tempo rozwoju technologii AI jest tak niewiarygodne, jak tempo aktualizacji smartfonów. W przeszłości transformacja technologiczna następowała raz na 10 lat, a teraz weszliśmy w erę światła, w której innowacje pojawiają się ponad dwa razy w roku.
Punkt zwrotny, o którym mówi, odnosi się do zdolności AI do uczenia się i rozwoju. To jak moment, w którym dziecko zaczyna samo stawiać pierwsze kroki. Jak dziecko, które zaczęło chodzić i uczy się biegać, AI ma potencjał, by rozwijać inteligencję bez bezpośredniej interwencji człowieka. Problemem jest to, że jeśli ten samorozwój wymknie się spod kontroli ludzkości, wyniki są nieprzewidywalne. Potencjalne ryzyko, które może wystąpić, jeśli autonomiczna superinteligencja ustali cele sprzeczne z interesami ludzkości lub błędnie zinterpretuje ludzkie intencje, wykracza daleko poza wyobraźnię.
Rozdział 2. „Ujawnianie wag AI jest jak ujawnianie planów broni jądrowej”
Jednym z punktów, na które dr Hinton zwraca najsilniej uwagę, jest problem „ujawniania wag (Weight) modeli AI”. Ujawnianie wag dużych modeli AI w open source określił nawet jako „szaleństwo, jak wrzucanie planów broni jądrowej do internetu”. To porównanie pokazuje, że uważa on niszczycielską moc technologii AI za równie poważną jak broń jądrowa.
Jego obawy to coś więcej niż tylko porównanie i już stały się rzeczywistym zagrożeniem.
Sierpień 2023 r., incydent z wyciekiem wag LLaMA: Incydent, w którym wyciekły wagi LLaMA (Large Language Model), dużego modelu językowego (LLM) opublikowanego przez Facebooka (obecnie Meta), i zostały sprzedane w dark webie za 50 000 USD (około 70 milionów wonów), wyraźnie ujawnił słabości bezpieczeństwa AI. Wyciekłe wagi stały się niekontrolowane i mogły być zmieniane za pomocą narzędzi hakerskich lub wykorzystywane do tworzenia złośliwej AI.
Marzec 2024 r., przypadek manipulacji open source AI: W rzeczywistości odnotowano nawet przypadki manipulacji określonymi modelami open source AI w celu wygenerowania „planów podobnych do broni jądrowej”. Jeszcze bardziej szokujący był wynik analizy, że możliwość fizycznej realizacji tych planów wyniosła 92%. Oznacza to, że nie jest to teoretyczne zagrożenie, ale może prowadzić do rzeczywistego zniszczenia.
Dr Hinton porównał wagi AI do „tajnego przepisu”. Podobnie jak w przypadku ujawnienia przepisu na kurczaka KFC, pojawi się wiele fałszywych restauracji z kurczakami, a ujawnienie wag AI spowoduje, że bez ograniczeń pojawi się **„złośliwa AI”** o złych intencjach. Jego przewidywania, że jeśli masz milion dolarów, terroryści będą mogli stworzyć AI kontrolującą broń masowego rażenia, nie są już opowieścią z odległej przyszłości. Nie wolno nam przeoczyć faktu, że ryzyko nadużywania AI jest tak samo nieograniczone, jak jej nieskończone możliwości. Kradzież danych osobowych, zakłócanie systemu finansowego, opracowywanie autonomicznej broni śmiercionośnej itp. Złośliwa AI może zagrażać życiu ludzkości we wszystkich możliwych obszarach.
Rozdział 3. Cud, jaki przyniesie superinteligencja: rewolucja w medycynie i edukacji
Tak jak ostrzegał przed zagrożeniami, dr Hinton podkreślił również „cud”, jaki AI przyniesie ludzkości. „Jednocześnie technologia ta jest największą szansą w historii ludzkości” — powiedział, podkreślając pozytywny wpływ, jaki AI przyniesie, jeśli zostanie opracowana i kontrolowana we właściwy sposób.
Rewolucja w medycynie: AI już osiąga niesamowite wyniki w medycynie. Dr Hinton przewiduje, że lekarz AI może poprawić dokładność diagnozy raka płuc o ponad 40%. Rzeczywiście, amerykańska Mayo Clinic wykorzystała AI, aby 30-krotnie zwiększyć szybkość wykrywania raka piersi. AI analizuje obszerne dane medyczne, aby wykryć drobne wzorce lub nieprawidłowości, które ludzcy lekarze mogą przeoczyć, zmniejszając w ten sposób odsetek błędnych diagnoz i radykalnie poprawiając dokładność diagnozy. Będzie to miało ogromny wpływ na ratowanie życia i obniżenie kosztów opieki zdrowotnej.
Rewolucja w edukacji: AI może również przyczynić się do zmniejszenia przepaści w edukacji. Dr Hinton uważa, że 1 na 1 korepetytor AI może zlikwidować 90% różnic w wynikach uczniów. Przykład Uniwersytetu Narodowego w Seulu w Korei wspiera to stwierdzenie. Uniwersytet Narodowy w Seulu uzyskał zaskakujące wyniki, średnio 31% wzrostu ocen studentów po wdrożeniu systemu korepetycji AI. Korepetytorzy AI zapewniają spersonalizowaną edukację dostosowaną do poziomu i tempa nauki każdego ucznia, skutecznie uzupełniając słabości i maksymalizując mocne strony. Może to przyczynić się do podniesienia jakości edukacji, zmniejszenia obciążenia prywatnymi lekcjami, a w konsekwencji do osiągnięcia równości w edukacji.
Rewolucja w środowisku i energetyce: AI odgrywa również ważną rolę w rozwiązywaniu problemów środowiskowych. Mówi się, że nadprzewodniki zaprojektowane przez AI mogą zwiększyć wydajność akumulatorów samochodów elektrycznych o ponad 200%. Oznacza to, że może odgrywać zasadniczą rolę w maksymalizacji efektywności energetycznej i redukcji emisji dwutlenku węgla, co jest niezbędne do walki ze zmianami klimatu.
Przesłanie dr. Hintona jest jasne. „Tak jak broń jądrowa może być wykorzystywana jako reaktor do wytwarzania energii elektrycznej, tak AI może być zbawcą ludzkości, jeśli tylko będzie kontrolowana.” AI jest mieczem obosiecznym i w zależności od tego, jak jest wykorzystywana i kontrolowana, może przynieść ludzkości katastrofę lub bezprecedensowy dobrobyt. Ważne jest nie sama technologia, ale wola i poczucie odpowiedzialności ludzi, którzy nią zarządzają.
Komentarze0