10 powszechnych błędnych przekonań na temat paradygmatów językowych

10 powszechnych błędnych przekonań na temat paradygmatów językowych

Modele językowe to jedne z najbardziej znanych innowacji technologicznych. Rzeczywiście, Mackenzie to docenia Generatywna sztuczna inteligencja może dodać od 2,6 do 4,4 bilionów dolarów rocznie na światową gospodarkę i zwiększyć wpływ sztucznej inteligencji (AI) o 15 do 40%.

Jednakże, podczas gdy rynek generatywnej sztucznej inteligencji wciąż rośnie, wciąż krąży wiele nieporozumień i mitów na temat działania modeli językowych. Od myślenia, że ​​LLM są świadome, do myślenia, że ​​mogą tworzyć treści z dużą dokładnością i bez uprzedzeń, istnieje wiele błędnych przekonań, których użytkownicy powinni być świadomi.

Demistyfikujące modele językowe: obalenie 10 mitów na temat sztucznej inteligencji

1. LLM może odzwierciedlać

Jednym z najczęstszych błędnych przekonań na temat LLM jest to, że mogą myśleć niezależnie. W rzeczywistości modele językowe mogą wyciągać wnioski ze zbioru danych i generować podsumowanie lub przewidywać tekst, ale nie rozumieją języka naturalnego tak, jak zrobiłby to człowiek.

Przetwarzają dane wejściowe użytkownika i wykorzystują wzorce, których nauczyły się z danych treningowych, aby określić, jak zareagować. Podobnie nie rozumieją emocji, sarkazmu i slangu. Oznacza to, że nowoczesne LLM są dalekie od sztucznej inteligencji ogólnej (AGI).

2. Paradygmaty języka tworzenia treści

Chociaż LLM może być używany do tworzenia treści, nie tworzy on ani niezależnie Tworzy oryginalna treść. Zamiast tego biorą wzorce z treści pisanych lub wizualnych, które zaobserwowali w swoich danych treningowych, i wykorzystują je do przewidywania i tworzenia treści opartych na danych treningowych.

Używanie danych szkoleniowych do generowania odpowiedzi jest praktyką kontrowersyjną. Na przykład trzech artystów uruchomiło a Pozew zbiorowy przeciwko Stability AI, DeviantArt i Midjourneyargumentując, że „skradzione prace wspierają te produkty AI”, ponieważ są szkolone na obrazach chronionych prawem autorskim pobranych z Internetu.

3. Wszystkie zgłoszenia są poufne

Innym ważnym nieporozumieniem dotyczącym LLM jest to, że dane wprowadzane do wpisów są ściśle poufne. To niekoniecznie jest prawdą. Na początku tego roku Samsung zablokował ChatGPT w miejscu pracy po tym, jak pracownik ujawnił poufne dane do rozwiązania z powodu obaw, że udostępnione informacje są przechowywane na zewnętrznym serwerze.

READ  Switch Online przekracza 32 miliony subskrybentów, Nintendo twierdzi, że będzie nadal „ulepszać i rozszerzać” kategorię pakietów rozszerzeń

Organizacje, które chcą korzystać z generatywnej sztucznej inteligencji, muszą podkreślać informacje, które pracownicy mogą udostępniać za pomocą modeli językowych, w przeciwnym razie ryzykują naruszeniem przepisów o ochronie danych, takich jak Ogólne rozporządzenie o ochronie danych (RODO).

4. Generatywna sztuczna inteligencja jest w 100% dokładna

Wielu użytkowników popełnia błąd, wierząc, że informacje generowane przez narzędzia takie jak ChatGPT i Bard są w 100% dokładne lub przynajmniej ogólnie dokładne. Niestety, modele językowe są podatne na halucynacje, co oznacza, że ​​mogą fałszować fakty i informacje oraz deklarować je „z pełnym przekonaniem”, jakby to była prawda.

W rezultacie użytkownicy muszą upewnić się, że dokładnie sprawdzają fakty i logiczne wyjaśnienia, aby nie zostać wprowadzonym w błąd przez wprowadzające w błąd informacje i nielogiczne wyniki.

5. LLMS jest bezstronny i bezstronny

Biorąc pod uwagę, że LLM został opracowany przez ludzi i naśladuje ludzki język, ważne jest, aby pamiętać, że uprzedzenia są wbudowane w te systemy, zwłaszcza jeśli występują błędy w bazowych danych szkoleniowych. Oznacza to, że użytkownicy nie mogą traktować ich jako neutralnych i bezstronnych źródeł.

Stronniczość maszynowa może przejawiać się w modelach językowych w postaci niedokładnych, błędnych informacji lub, bardziej otwarcie, w postaci nienawistnych lub obraźliwych treści. Zakres, w jakim te uprzedzenia stają się widoczne, zależy od danych, na których szkolone są te modele.

6. Generatywna sztuczna inteligencja jest skuteczna we wszystkich językach

Chociaż generatywne rozwiązania sztucznej inteligencji mogą być wykorzystywane do tłumaczenia informacji z jednego języka na inny, ich skuteczność w tym zakresie zależy od popularności używanego języka.

LLM może generować przekonujące odpowiedzi w popularnych językach europejskich, takich jak angielski i hiszpański, ale nie może generować odpowiedzi w mniej powszechnie używanych językach.

7. LLM Zgłaszają informacje z Internetu

Modele językowe, takie jak GPT4 i GPT 3.5, nie uzyskują dostępu do Internetu w czasie rzeczywistym, ale przetwarzają swoje dane szkoleniowe (niektóre są pobierane z Internetu).

READ  Nowa gra Double Dragon zapowiedziana na PS5, Switch, Xbox i PC

W przypadku dostawców takich jak Google, OpenAI i Microsoft charakter tych danych szkoleniowych jest w dużej mierze przechowywany w czarnej skrzynce, co oznacza, że ​​użytkownicy nie mają wglądu w to, jakie informacje LLM wykorzystuje do generowania danych wyjściowych. Oznacza to, że użytkownicy nie mogą zakładać, że informacje są aktualne lub dokładne.

8. LLM mają na celu zastąpienie ludzkich pracowników

Podczas gdy sztuczna inteligencja może zautomatyzować miliony miejsc pracy, LLM w swojej obecnej formie nie może zastąpić inteligencji, pomysłowości i kreatywności ludzkich pracowników. Generative AI to narzędzie zaprojektowane do pracy obok pracowników umysłowych, a nie obok nich.

Połączenie wiedzy personelu ze skalowalnością i możliwościami przetwarzania LLM można nazwać rozszerzoną inteligencją.

9. LLM nie może tworzyć szkodliwych treści

Niektórzy użytkownicy mogą sądzić, że zabezpieczenia moderacji treści dostawców, takie jak OpenAI, uniemożliwiają innym osobom używanie ich do tworzenia obraźliwych lub złośliwych treści, ale tak nie jest.

Dzięki uciekom z więzienia i niektórym innowacyjnym roszczeniom cyberprzestępcy mogą nakłaniać LLM do generowania złośliwego kodu i e-maili phishingowych, które mogą wykorzystać w środowisku naturalnym do kradzieży prywatnych informacji.

10. Mistrzowie mogą stale uczyć się nowych informacji

W przeciwieństwie do ludzi, LLM nie uczą się cały czas nowych informacji, ale wykorzystują techniki głębokiego uczenia się do identyfikowania nowych wzorców w swoich danych treningowych. Lepsze zrozumienie tych wzorców pozwala im wyciągać bardziej szczegółowe wnioski ze zbioru danych.

W związku z tym organizacje będą musiały przeszkolić LLM, jeśli chcą poznać nowe dane, które nie są częścią oryginalnych danych szkoleniowych.

Modele językowe: najlepiej z nadzorem

LLM ma potencjał, by zwielokrotnić siłę dla pracowników umysłowych, ale ważne jest, aby realistycznie podchodzić do swoich oczekiwań wobec technologii, jeśli chcesz uzyskać z niej to, co najlepsze.

READ  Projekt Redmi 13C, specyfikacje wyciekły w filmie z rozpakowywania: Wszystko, co musisz wiedzieć | Wiadomości z telefonów komórkowych

Świadomość halucynacji, uprzedzeń i nieścisłości pomoże uniknąć możliwości dezinformacji i umożliwi użytkownikom zwiększenie ich szans na wydobycie namacalnych spostrzeżeń w celu usprawnienia procesu decyzyjnego.

Randolph Howe

„Zła entuzjasta podróży. Irytująco skromny ćpun internetu. Nieprzepraszający alkoholiczek”.

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *