Przejdź do treści
Eksperci nie zgadzają się co do zagrożenia, ale nie można ignorować sztucznej inteligencji

Eksperci nie zgadzają się co do zagrożenia, ale nie można ignorować sztucznej inteligencji

Dla wielu ekspertów z dziedziny sztucznej inteligencji kluczowy moment w rozwoju AI jest tuż za rogiem. Globalny szczyt bezpieczeństwa AI, który odbędzie się w listopadzie w Bletchley Park w Buckinghamshire, jest więc niezwykle wyczekiwany. Ian Hogarth, przewodniczący brytyjskiej grupy zadaniowej odpowiedzialnej za monitorowanie bezpieczeństwa najnowocześniejszej AI, wyraził obawy przed objęciem stanowiska w tym roku w związku z ogólną sztuczną inteligencją, czyli "Boską" AI. Definicje AGI różnią się, ale w skrócie odnoszą się do systemu AI, który może wykonywać zadanie na poziomie ludzkim lub wyższym i mógłby unikać naszej kontroli.

1. Bliskie osiągnięcie AGI?

Max Tegmark, naukowiec, który w tym roku zwrócił uwagę mediów listem wzywającym do wstrzymania dużych eksperymentów z AI, powiedział Guardianowi, że profesjonaliści z branży technologicznej w Kalifornii sądzą, że AGI jest blisko. "Wielu ludzi tutaj uważa, że osiągniemy Boską sztuczną inteligencję ogólną może za trzy lata. Niektórzy myślą, że może za dwa lata". Dodał: "Niektórzy uważają, że zajmie to więcej czasu i nie stanie się to do 2030 roku". Co również nie wydaje się być zbyt odległą przyszłością.

2. Kontrowersje wokół AGI

Istnieją również autorytatywne głosy, które uważają, że zamieszanie wokół AGI jest przesadzone. Według jednego z tych kontrargumentów, hałas jest cynicznym manewrem mającym na celu uregulowanie i odgrodzenie rynku oraz umocnienie pozycji dużych graczy, takich jak twórca ChatGPT, OpenAI, Google i Microsoft.

3. Bieżące zagrożenia związane z AI

Instytut Badań nad Rozproszoną SI ostrzegł, że skupianie się na ryzyku egzystencjalnym pomija natychmiastowe skutki wynikające z systemów AI, takie jak: wykorzystywanie prac artystów i autorów bez ich zgody w celu budowy modeli AI; oraz korzystanie z nisko opłacanych pracowników do wykonywania niektórych zadań związanych z budową modelu.

4. Czy AGI jest realnym zagrożeniem? 

Inne stanowisko mówi, że niekontrolowana AGI po prostu się nie zdarzy. "Niekontrolowana ogólna sztuczna inteligencja to science fiction, a nie rzeczywistość", powiedział William Dally, główny naukowiec w firmie produkującej chipy AI, Nvidia, podczas przesłuchania w senacie USA w zeszłym tygodniu.

Podsumowanie

Dla tych, którzy nie zgadzają się z powyższym, zagrożenie stwarzane przez AGI nie może być ignorowane. Obawy dotyczące takich systemów obejmują odmowę – i unikanie – wyłączenia, łączenie się z innymi AI lub zdolność do samodzielnego doskonalenia się.

Inne obawy wyrażane przez urzędników rządowych dotyczą tego, że kolejne wersje modeli AI, poniżej poziomu AGI, mogą być manipulowane przez nieuczciwych aktorów w celu wytworzenia poważnych zagrożeń, takich jak biobronie.

Z międzynarodowymi liderami przybywającymi do Bletchley Park za kilka tygodni, Downing Street chce skupić uwagę świata na czymś, co urzędnicy uważają, że nie jest traktowane wystarczająco poważnie w kręgach politycznych: szansie, że maszyny mogą wyrządzić poważne szkody ludzkości.

O nas

W ramach kompleksowej obsługi tworzymy portale, e-sklepy oraz intranety począwszy od projektowania, poprzez wdrażanie, kończąc na zarządzaniu i stałej obsłudze. W naszych rozwiązaniach opieramy się na sprawdzonej technologii Drupal, Laravel i Symfony, zapewniającej skalowalność oraz bezpieczeństwo.

Wyróżnione artykuły

Dane kontaktowe

Nasze strony internetowe są w pełni funkcjonalne, zindywidualizowane, łatwe w nawigacji i przyjemne w użyciu. Nasze wsparcie po wdrożeniu zagwarantuje Ci silną i wspólnie rozwiniętą, stabilną pozycję.

  • plac Stefana Batorego 3/2, 70-207 Szczecin, Poland
  • +48 693 417 766
  • biuro@grupa.it