Eksperci nie zgadzają się co do zagrożenia, ale nie można ignorować sztucznej inteligencji
Dla wielu ekspertów z dziedziny sztucznej inteligencji kluczowy moment w rozwoju AI jest tuż za rogiem. Globalny szczyt bezpieczeństwa AI, który odbędzie się w listopadzie w Bletchley Park w Buckinghamshire, jest więc niezwykle wyczekiwany. Ian Hogarth, przewodniczący brytyjskiej grupy zadaniowej odpowiedzialnej za monitorowanie bezpieczeństwa najnowocześniejszej AI, wyraził obawy przed objęciem stanowiska w tym roku w związku z ogólną sztuczną inteligencją, czyli "Boską" AI. Definicje AGI różnią się, ale w skrócie odnoszą się do systemu AI, który może wykonywać zadanie na poziomie ludzkim lub wyższym i mógłby unikać naszej kontroli.
1. Bliskie osiągnięcie AGI?
Max Tegmark, naukowiec, który w tym roku zwrócił uwagę mediów listem wzywającym do wstrzymania dużych eksperymentów z AI, powiedział Guardianowi, że profesjonaliści z branży technologicznej w Kalifornii sądzą, że AGI jest blisko. "Wielu ludzi tutaj uważa, że osiągniemy Boską sztuczną inteligencję ogólną może za trzy lata. Niektórzy myślą, że może za dwa lata". Dodał: "Niektórzy uważają, że zajmie to więcej czasu i nie stanie się to do 2030 roku". Co również nie wydaje się być zbyt odległą przyszłością.
2. Kontrowersje wokół AGI
Istnieją również autorytatywne głosy, które uważają, że zamieszanie wokół AGI jest przesadzone. Według jednego z tych kontrargumentów, hałas jest cynicznym manewrem mającym na celu uregulowanie i odgrodzenie rynku oraz umocnienie pozycji dużych graczy, takich jak twórca ChatGPT, OpenAI, Google i Microsoft.
3. Bieżące zagrożenia związane z AI
Instytut Badań nad Rozproszoną SI ostrzegł, że skupianie się na ryzyku egzystencjalnym pomija natychmiastowe skutki wynikające z systemów AI, takie jak: wykorzystywanie prac artystów i autorów bez ich zgody w celu budowy modeli AI; oraz korzystanie z nisko opłacanych pracowników do wykonywania niektórych zadań związanych z budową modelu.
4. Czy AGI jest realnym zagrożeniem?
Inne stanowisko mówi, że niekontrolowana AGI po prostu się nie zdarzy. "Niekontrolowana ogólna sztuczna inteligencja to science fiction, a nie rzeczywistość", powiedział William Dally, główny naukowiec w firmie produkującej chipy AI, Nvidia, podczas przesłuchania w senacie USA w zeszłym tygodniu.
Podsumowanie
Dla tych, którzy nie zgadzają się z powyższym, zagrożenie stwarzane przez AGI nie może być ignorowane. Obawy dotyczące takich systemów obejmują odmowę – i unikanie – wyłączenia, łączenie się z innymi AI lub zdolność do samodzielnego doskonalenia się.
Inne obawy wyrażane przez urzędników rządowych dotyczą tego, że kolejne wersje modeli AI, poniżej poziomu AGI, mogą być manipulowane przez nieuczciwych aktorów w celu wytworzenia poważnych zagrożeń, takich jak biobronie.
Z międzynarodowymi liderami przybywającymi do Bletchley Park za kilka tygodni, Downing Street chce skupić uwagę świata na czymś, co urzędnicy uważają, że nie jest traktowane wystarczająco poważnie w kręgach politycznych: szansie, że maszyny mogą wyrządzić poważne szkody ludzkości.