Pionier sztucznej inteligencji Geoffrey Hinton twierdzi, że świat słucha ostrzeżeń dotyczących tej technologii

Pionier sztucznej inteligencji Geoffrey Hinton twierdzi, że świat słucha ostrzeżeń dotyczących tej technologii

Kilka miesięcy po tym, jak gwiazdy sztucznej inteligencji zaczęły bić na alarm w związku z zagrożeniami związanymi z tą technologią, jeden z liderów branży twierdzi, że ma wrażenie, że ludzie go słuchają.

„Jestem optymistą, że ludzie zrozumieli, że istnieje cały szereg problemów” – powiedział Geoffrey Hinton podczas przemówienia prowadzonego w środę przez fundatora sztucznej inteligencji, firmę Radical Ventures, w dzielnicy MaRS Discovery District w Toronto.

„Mam wielką nadzieję, że ludzie mnie słuchają”.

Przez większą część roku brytyjsko-kanadyjski informatyk, który w 2018 roku wraz z Yoshuą Bengio i Yannem LeCunem zdobył Nagrodę AM Turinga, zwaną Nagrodą Nobla w dziedzinie informatyki, prowadził krucjatę mającą na celu zwiększenie świadomości społeczeństwa o znaczeniu sztucznej inteligencji. Ryzyko.

Tak zwany ojciec chrzestny sztucznej inteligencji niedawno odszedł z pracy w gigantze wyszukiwarek Google, aby móc swobodniej omawiać zagrożenia związane ze sztuczną inteligencją, które wymienił jako uprzedzenia i dyskryminację, bezrobocie, komory pogłosowe, fałszywe wiadomości i zwalczanie botów.

Chociaż niektórzy, w tym inny pionier sztucznej inteligencji, Yann LeCun, bagatelizują jego ostrzeżenia dotyczące zagrożeń egzystencjalnych, Hinton nie ustąpił.

W środę powiedział, że jest przekonany, że istnieje egzystencjalne ryzyko, że technologia stworzona przez mądrzejszą od nas ludzkość wyznaczy cele cząstkowe w zakresie osiągnięcia wydajności.

„Istnieje bardzo jasny cel cząstkowy, a mianowicie, jeśli chcesz coś osiągnąć, zdobyć więcej mocy” – powiedział.

„Jeśli zyskasz większą kontrolę, łatwiej będzie Ci coś zrobić”.

Tutaj mogą zacząć się problemy.

„Jeśli istoty mądrzejsze od nas będą chciały to kontrolować, zrobią to. Nie będziemy w stanie tego powstrzymać” – powiedział Hinton.

„Musimy więc wymyślić, jak powstrzymać ich przed chęcią kontrolowania sytuacji”.

Komentarze Hintona pojawiły się tego samego dnia, w którym Aidan Gomes, dyrektor generalny ukochanej AI Cohere z siedzibą w Toronto, opublikował na blogu post, w którym napisał: „Spędzanie czasu i zasobów na podsycaniu egzystencjalnego strachu przed sztuczną inteligencją było odwróceniem uwagi”.

READ  Gwałtowna inflacja żywności i paliw oznacza katastrofę dla gospodarek wschodzących

„Dla tych w branży, którzy poważnie wierzą, że scenariusze zagłady są najpoważniejszym ryzykiem, przed jakim stoi sztuczna inteligencja, z radością przyjmuję różnicę zdań, chociaż z całym szacunkiem się z nią nie zgadzam” – powiedział Gomez.

Zamiast skupiać się na zagrożeniach egzystencjalnych, powiedział, że świat powinien skupić się wokół trzech priorytetów: ochrony danych wrażliwych, łagodzenia uprzedzeń i dezinformacji oraz wiedzy, kiedy należy informować ludzi o cenzurze.

„Te trzy obszary są być może mniej niezwykłe niż pomysł przejęcia świata za pomocą technologii terminatorów” – powiedział.

„Są one jednak najbardziej prawdopodobnym i najbardziej bezpośrednim zagrożeniem dla naszego zbiorowego dobrobytu”.

Fei-Fei Lee, współdyrektor Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku na Uniwersytecie Stanforda, która pojawiła się w środę w rozmowie z Hintonem, powiedziała, że ​​„osobiście zaniepokoiła się” tą technologią około 2018 roku.

Rozmowy na temat prywatności i nadzoru stały się normą po tym, jak Cambridge Analytica zapłaciła twórcy aplikacji na Facebooku za dostęp do danych osobowych około 87 milionów użytkowników. Dane osobowe zostały wykorzystane do namierzenia amerykańskich wyborców podczas wyborów prezydenckich w kraju, które zakończyły się objęciem władzy przez Donalda Trumpa.

To uświadomiło Lee: „Narażamy się na wiele katastrofalnych zagrożeń i musimy sobie z tym poradzić”.

Zgodziła się z Hintonem, że świat zaczyna słuchać ich obaw.

W zeszłym tygodniu kanadyjski minister innowacji François-Philippe Champagne przedstawił dobrowolny kodeks postępowania w zakresie generatywnej sztucznej inteligencji na konferencji technologicznej w Montrealu.

Twórcy bloga – Cohere i firma programistyczna OpenText Corp – zgodzili się z tym. Oraz firma zajmująca się cyberbezpieczeństwem BlackBerry Inc. Wśród innych firm – na szeregu obietnic, w tym na sprawdzaniu zbiorów danych pod kątem potencjalnych stronniczości i ocenie stworzonej przez nie sztucznej inteligencji pod kątem „potencjalnych negatywnych skutków”.

READ  Greco, Mario – Nekrolog – Sault Ste. Maria

Jednak Toby Lutke, założyciel i dyrektor generalny giganta handlu elektronicznego Shopify Inc., opisał ten kod jako „kolejny przypadek EFRAID” – nawiązanie do cyberbezpieczeństwa i strachu.

„Nie będę tego tolerował. Nie potrzebujemy więcej gubernatorów w Kanadzie. Potrzebujemy więcej budowniczych. Niech inne kraje się organizują, a my pójdziemy odważniejszą drogą i powiemy: «chodźcie tu budować»” – Lutke napisał w X, dobrze- znana platforma mediów społecznościowych, dawniej Twitter.

Po wysłuchaniu oświadczeń Lutkego Champagne potwierdził, że było to dobrowolne.

„Jeśli wierzy, że pomoże to w realizacji jego interesów, nie musi podpisywać kodeksu. To musi podjąć decyzję. Szanuję to” – powiedział Champagne.

„Z drugiej strony istnieje wiele głosów wzywających do stworzenia ram, które umożliwią funkcjonowanie. W interesie Kanady i w interesie przedsiębiorstw leży możliwość stwierdzenia, że ​​będą przestrzegać pewnych podstawowych zasad na dobrowolność, która pozwala na odpowiedzialne innowacje.”

Rząd federalny przedstawił w czerwcu ubiegłego roku projekt ustawy zawierający ogólne podejście do regulacji sztucznej inteligencji, ale wiele szczegółów pozostawił na później. Ma zostać wdrożony nie później niż w 2025 roku.

Elise Haynes

„Analityk. Nieuleczalny nerd z bekonu. Przedsiębiorca. Oddany pisarz. Wielokrotnie nagradzany alkoholowy ninja. Subtelnie czarujący czytelnik.”

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *