Sieci neuronowe mogą wymknąć się spod kontroli – Elon Musk
Musk i współzałożyciel Apple, Steve Wozniak, wraz z 1000 ekspertów podpisali list otwarty wzywający do opóźnienia rozwoju o co najmniej sześć miesięcy, aby upewnić się, że sztuczna inteligencja i sieci neuronowe są naprawdę bezpieczne.
List otwarty stwierdza, że obecna dynamika wyścigu AI jest niebezpieczna i wzywa do stworzenia niezależnych regulatorów, aby zapewnić bezpieczeństwo wdrażania przyszłych systemów.
W liście, opublikowanym przez organizację non-profit Future of Life Institute, zauważono, że laboratoria sztucznej inteligencji są obecnie zaangażowane w „wyścig poza kontrolą” w celu opracowania i wdrożenia systemów uczenia maszynowego, „których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć. lub niezawodna kontrola.
„Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego zawieszenia szkoleń w zakresie systemów AI potężniejszych niż GPT-4 na co najmniej 6 miesięcy” – czytamy w liście. „Ta przerwa powinna być publiczna i możliwa do zweryfikowania, a wszyscy kluczowi gracze powinni być zaangażowani. Jeśli takiej przerwy nie można szybko zaakceptować, rządy powinny interweniować i nałożyć moratorium”.
Wśród sygnatariuszy znaleźli się autor Yuval Noah Harari, współzałożyciel Apple Steve Wozniak, współzałożyciel Skype Jaan Tallinn, polityk Andrew Yang oraz wielu wybitnych badaczy i liderów AI, w tym Stuart Russell, Joshua Bengio, Gary Markus i Emad Mostak.
Jest mało prawdopodobne, aby list miał jakikolwiek wpływ na obecny klimat w badaniach nad sztuczną inteligencją, ponieważ firmy technologiczne, takie jak Google i Microsoft, spieszą się z wprowadzaniem nowych produktów, często ignorując wcześniej wyrażone obawy dotyczące bezpieczeństwa i etyki.
Jak zauważono w liście, nawet sama OpenAI wyraziła potencjalną potrzebę „niezależnego przeglądu” przyszłych systemów AI, aby upewnić się, że spełniają one standardy bezpieczeństwa. Sygnatariusze twierdzą, że nadszedł czas.
„Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa do zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie przeglądane i monitorowane przez niezależnych zewnętrznych ekspertów” – piszą. „Protokoły te powinny gwarantować, że przestrzegające ich systemy są ponad wszelką wątpliwość bezpieczne”.
List w całości można przeczytać tutaj.