Meta, aby wybrać więcej obrazów wygenerowanych przez sztuczną inteligencję przed następnymi wyborami

Meta, aby wybrać więcej obrazów wygenerowanych przez sztuczną inteligencję przed następnymi wyborami

Do tej pory Meta oznaczała jedynie obrazy wygenerowane przez sztuczną inteligencję, opracowane przy użyciu własnych narzędzi AI. Teraz firma twierdzi, że będzie starała się umieszczać te etykiety na treściach Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock.

Etykiety pojawią się we wszystkich dostępnych językach w każdej aplikacji. Ale transformacja nie będzie natychmiastowa.

W poście na blogu Nick Clegg, szef ds. spraw globalnych w Meta, napisał, że firma zacznie oznaczać obrazy wygenerowane przez sztuczną inteligencję wygenerowane przez źródła zewnętrzne „w nadchodzących miesiącach” i będzie kontynuować prace nad problemem „w ciągu następnego roku”.

Dodatkowy czas jest niezbędny na współpracę z innymi firmami zajmującymi się sztuczną inteligencją „w celu dostosowania się do wspólnych standardów technicznych wskazujących, kiedy treść została utworzona przy użyciu sztucznej inteligencji” – napisał Clegg.

Dezinformacja wyborcza spowodowała kryzys Facebooka po wyborach prezydenckich w 2016 r. ze względu na sposób, w jaki podmioty zagraniczne, głównie z Rosji, mogły tworzyć i rozpowszechniać wysoce naładowane i niedokładne treści. W kolejnych latach platforma była wielokrotnie wykorzystywana, zwłaszcza podczas pandemii Covid-19, kiedy ludzie wykorzystywali ją do rozpowszechniania ogromnych ilości dezinformacji. Na tę stronę trafili także negacjoniści Holokaustu i zwolennicy teorii spiskowych QAnon.

Meta stara się pokazać, że jest gotowa na wykorzystanie przez złych aktorów bardziej zaawansowanych form technologii w cyklu 2024.

Chociaż niektóre treści generowane przez sztuczną inteligencję są łatwe do wykrycia, nie zawsze tak jest. Wykazano, że usługi mają identyfikować teksty generowane przez sztuczną inteligencję, takie jak artykuły Wyświetlanie stronniczości Przeciwko obcokrajowcom mówiącym po angielsku. Nie jest to dużo łatwiejsze w przypadku zdjęć i filmów, chociaż często pojawiają się tagi.

Meta chce zmniejszyć niepewność, współpracując przede wszystkim z innymi firmami zajmującymi się sztuczną inteligencją, które wykorzystują niewidoczne znaki wodne i określone typy metadanych w obrazach tworzonych na ich platformach. Istnieją jednak sposoby na usunięcie znaków wodnych – jest to problem, którym Meta planuje się zająć.

READ  Dodatek z tytułu podatku od nieruchomości dla właścicieli domów w Kolumbii Brytyjskiej wynosi 570 dolarów w obszarach metropolitalnych

„Ciężko pracujemy nad opracowaniem narzędzi klasyfikacyjnych, które pomogą nam automatycznie wykrywać treści generowane przez sztuczną inteligencję, nawet jeśli w treści brakuje niewidocznych tagów” ​​– napisał Clegg. „Jednocześnie szukamy sposobów, aby utrudnić usuwanie lub zmianę niewidocznych znaków wodnych”.

Monitorowanie dźwięku i obrazu może być trudniejsze niż monitorowanie obrazów, ponieważ nie istnieje jeszcze standard branżowy umożliwiający firmom zajmującym się sztuczną inteligencją dodawanie jakichkolwiek niewidocznych identyfikatorów.

„Nie możemy jeszcze wykryć tych sygnałów i sklasyfikować treści pochodzących od innych firm” – napisał Clegg.

Meta umożliwi użytkownikom dobrowolne ujawnianie, kiedy przesyłają wideo lub audio wygenerowane przez sztuczną inteligencję. Jeśli bez wykrycia udostępnią treści deepfake lub jakąkolwiek inną formę treści wygenerowanych przez sztuczną inteligencję, firma może nałożyć „kary” – czytamy w poście.

„Jeśli ustalimy, że utworzone cyfrowo lub zmodyfikowane obrazy, treści wideo lub audio stwarzają szczególnie wysokie ryzyko istotnego wprowadzenia w błąd opinii publicznej w sprawie budzącej wątpliwości, możemy w razie potrzeby dodać bardziej widoczną etykietę” – napisał Clegg.

On ogląda: Meta jest bardzo optymistyczna, jeśli chodzi o wzrost przychodów i kosztów

Elise Haynes

„Analityk. Nieuleczalny nerd z bekonu. Przedsiębiorca. Oddany pisarz. Wielokrotnie nagradzany alkoholowy ninja. Subtelnie czarujący czytelnik.”

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *