Home Sztuczna inteligencja Sztuczna inteligencja (AI) nie stanowi „egzystencjalnego zagrożenia dla ludzkości”

Sztuczna inteligencja (AI) nie stanowi „egzystencjalnego zagrożenia dla ludzkości”

0

jak podkreślają setki ekspertów w nowym otwartym liście. Jest to najnowsza interwencja inżynierów i innych naukowców w obliczu rosnącego zainteresowania i obaw o przyszłość sztucznej inteligencji.

Nowy list jest odpowiedzią na niedawną interwencję technologów, w tym Elona Muska, który w marcu był jednym z ponad 1000 ekspertów twierdzących, że ludzkość jest zagrożona przez eksperymenty z AI. Wezwał on firmy do wstrzymania prac i zastanowienia się nad zagrożeniami – i poprosił rządy o interwencję, jeśli firmy tego nie zrobią.

Nowy list stoi w opozycji do tego wezwania. Zwolennicy twierdzą, że AI „będzie siłą transformującą na dobro, jeśli podejmiemy właściwe decyzje dotyczące jej rozwoju i użytkowania”.

List został zorganizowany przez brytyjski BCS, Chartered Institute for IT, aby przeciwdziałać „zagładzie AI”. Twierdzi, że kraj „może pomóc w wyznaczaniu drogi w ustanawianiu profesjonalnych i technicznych standardów w rolach AI, wspieranych przez solidny kodeks postępowania, międzynarodową współpracę i w pełni zasobną regulację”. Robiąc to, nie tylko pomogłoby to promować Wielką Brytanię jako miejsce docelowe dla AI, ale także zapewniło, że AI byłoby używane dla dobra, jak stwierdzono.

Sygnatariusze obejmują różne osoby z całego społeczeństwa, w tym pracowników think tanków i organów publicznych, niekoniecznie zajmujących się sztuczną inteligencją. Ale obejmuje również szereg inżynierów i innych osób, które pracowały nad sztuczną inteligencją w kontekstach akademickich i biznesowych.

„Technolodzy i liderzy, którzy podpisali nasze oświadczenie, wierzą, że AI nie dorosną jak Terminator, ale raczej jako zaufany współpilot w nauce, pracy, opiece zdrowotnej, rozrywce,” powiedział Rashik Parmar, dyrektor generalny BCS, The Chartered Institute for IT.

„Jednym ze sposobów na osiągnięcie tego jest tworzenie i zarządzanie AI przez licencjonowanych i etycznych profesjonalistów, spełniających standardy uznawane za granicami międzynarodowymi.

„Publiczność potrzebuje pewności, że eksperci nie tylko wiedzą, jak tworzyć i używać AI, ale także jak robić to odpowiedzialnie. Tak, AI to podróż bez biletu powrotnego, ale ten list pokazuje, że społeczność technologiczna nie wierzy, że kończy się ona koszmarnym scenariuszem złych robotów-panów, gorzej jeżeli za kilkanaście lat okaże się, że Musk miał rację.

Wyjdź z wersji mobilnej