Google integruje wyszukiwanie AI w „całkowicie odnowionym” doświadczeniu.

Google integruje wyszukiwanie AI w „całkowicie odnowionym” doświadczeniu.

(Bloomberg) – Google od prawie dwóch lat ściga się z OpenAI i innymi firmami, aby udostępnić społeczeństwu generatywną sztuczną inteligencję, która potrafi odpowiadać na złożone pytania w sposób konwersacyjny, w sposób rzeczywiście zaakceptowany przez większość konsumentów. Google we wtorek ostro zaatakował konkurencję, dając do zrozumienia, że ​​nie zamierza tracić pozycji lidera jako najpopularniejsza wyszukiwarka świata.

Proces „Googlingu”, który przez ostatnie dwie dekady był synonimem wyszukiwania, będzie teraz nasycony technologią z potężnego modelu sztucznej inteligencji Gemini firmy Alphabet Inc., oznajmiła firma na dorocznej konferencji programistów w Mountain View. Kalifornia.

„Wyszukiwarka Google to sztuczna inteligencja tworzona na skalę ludzkiej ciekawości” – powiedział na scenie dyrektor generalny Sundar Pichai, ogłaszając nowe funkcje podczas firmowego szczytu I/O.

Na żywo Google zaprezentowało, jak to określił Pichai, „całkowicie odnowione, nowe doświadczenie wyszukiwania”, które w tym tygodniu zostanie udostępnione wszystkim użytkownikom w USA, a nowa wyszukiwarka oparta na technologii Gemini pojawi się „wkrótce” w innych krajach.

„Widzimy wiele możliwości przed twórcami, programistami, startupami i wszystkimi” – powiedział Pichai w rozmowie z reporterami przed wydarzeniem.

Największą zmianą w Google jest to, że w przypadku niektórych wyszukiwań pojawia się teraz „Przegląd sztucznej inteligencji”, czyli odpowiedź o charakterze bardziej narracyjnym, która oszczędza ludziom konieczności klikania różnych linków.

Pod zapytaniami użytkowników w popularnym prostym pasku wyszukiwania pojawi się panel oparty na sztucznej inteligencji, wyświetlający podsumowanie informacji pobranych z wyników wyszukiwania Google w Internecie. Google poinformowało, że udostępni także stronę sterowaną przez sztuczną inteligencję, która będzie agregować wyniki według tematów lub będzie oferować na przykład plan dzienny dla osób, które zwracają się do Google, aby wykonać określone zadania, takie jak utworzenie planu posiłków na tydzień lub znalezienie restauracji, w której można zjeść świętować rocznicę. Google oświadczyło, że nie będzie przeprowadzać przeglądu opartego na sztucznej inteligencji w przypadku niektórych wrażliwych zapytań, takich jak wyszukiwanie informacji medycznych lub samookaleczenie.

Wkrótce po założeniu w 1998 r. Google wyprzedził Yahoo! Stała się ulubioną wyszukiwarką na świecie dzięki algorytmowi, który był szybszy i dokładniejszy niż cokolwiek innego w tamtym czasie. Jej dominacja była tak niezachwiana, że ​​stała się przedmiotem federalnego pozwu antymonopolowego. (Wyrok w tej sprawie ma zostać wydany jeszcze w tym roku.)

Jednak charakter wyszukiwania w Internecie zmienia się radykalnie – a konkurenci Google’a coraz częściej wkraczają w jego przestrzeń. Gigant wyszukiwania stanął przed ogromną presją ze strony takich firm jak OpenAI i Anthropic, których chatboty ChatGPT i Cloude oparte na sztucznej inteligencji są łatwe w obsłudze i powszechnie stosowane, co zagraża wiodącej pozycji Google w wyszukiwaniu i całemu modelowi biznesowemu.

W poniedziałkowym strategicznym ogłoszeniu OpenAI, wspierany przez miliardy Microsoftu, wprowadził szybszy i tańszy model sztucznej inteligencji o nazwie GPT-4o, który będzie zasilał jego popularnego chatbota. Nowy model sztucznej inteligencji umożliwi ludziom rozmowę z ChatGPT lub obejrzenie jego obrazu, a OpenAI twierdzi, że może odpowiedzieć w ciągu milisekund. Kiedy Google zaprezentował we wtorek swój najnowszy produkt, stanął przed trudnym zadaniem znalezienia równowagi: pokazanie, że nie pozostaje w tyle za OpenAI, bez kanibalizowania biznesu reklamy w wyszukiwarkach, który pozostaje jego siłą napędową.

READ  Tesla Model S w kratkę vs. Ferrari SF90 vs. Wyścig Porsche 911 Turbo S Drag Race jest bliżej niż myślisz

„Pokazując swoje najnowsze modele i sposób, w jaki zasilą one istniejące produkty i zapewnią duży zasięg konsumentom, Google pokazuje, jak może skutecznie wyróżnić się na tle konkurencji” – powiedział Jacob Born, analityk w firmie Emarketer. „Aby zachować konkurencyjność i zadowolić inwestorów, Google będzie musiał skoncentrować się na przełożeniu swoich innowacji w zakresie sztucznej inteligencji na dochodowe produkty i usługi na dużą skalę”.

Jeśli w zeszłym roku Google wykazało chęć eksperymentowania z generatywnymi funkcjami sztucznej inteligencji w swoich głównych produktach i usługach, to jest to rok, w którym firma od razu wkracza do akcji, wprowadzając fundamentalne i zauważalne zmiany w swojej charakterystycznej platformie.

Ta zmiana stwarza wyzwania dla ekonomiki podstawowej działalności Google w zakresie wyszukiwania, która w zeszłym roku wygenerowała ponad 175 miliardów dolarów z reklam w wyszukiwarkach. Inwestorzy zauważyli, że dostarczanie odpowiedzi wyszukiwania generowanych przez sztuczną inteligencję wymagałoby większej mocy obliczeniowej niż tworzenie listy linków, co mogłoby obniżyć marże wysoce dochodowej wyszukiwarki Google. W zeszłym tygodniu w wywiadzie dla Bloomberga Liz Read, wiceprezes Google ds. wyszukiwania, powiedziała, że ​​firma poczyniła postępy w obniżaniu kosztów wyszukiwania generowanego przez sztuczną inteligencję. Powiedziała, że ​​jak donosi prasa, firma nie planuje łączenia dodatków wykorzystujących sztuczną inteligencję z subskrypcją.

Reed powiedział, że Google ma nadzieję, że wprowadzając do swojej wyszukiwarki więcej sztucznej inteligencji, skróci czas i ograniczy obciążenie psychiczne użytkowników w celu znalezienia poszukiwanych informacji.

„Badania to bardzo potężne narzędzie, ale w wielu przypadkach trzeba włożyć w nie dużo ciężkiej pracy” – powiedział Reed. „Jak możemy wykorzystać tę ciężką pracę w badaniach dla Ciebie, abyś mógł się na nich skupić załatwić sprawę?”, powiedział Reed. Nowa wyszukiwarka Google oparta na sztucznej inteligencji będzie w stanie przetwarzać miliardy zapytań.

Ale Google musi też uważać, aby nie za bardzo wstrząsnąć łódką. Użytkownicy mogą klikać mniej reklam, jeśli przeglądy AI pełniej odpowiedzą na ich pytania. Ekosystem serwisów informacyjnych i innych witryn internetowych, które opierają się na ruchu giganta wyszukiwania, może również odnotować mniejszą liczbę odwiedzających ze względu na zmiany wprowadzone przez Google. Reed próbował wprowadzić atmosferę spokoju wśród reklamodawców i wydawców. Stwierdzono, że reklamy będą nadal pojawiać się w wyznaczonych miejscach w wynikach wyszukiwania Google, wraz z tagami umożliwiającymi odróżnienie elementów sponsorowanych od wyników bezpłatnych. Jednocześnie dodała, że ​​testy firmy wykazały, że wyszukiwania generowane przez sztuczną inteligencję stanowią dla użytkowników punkt wyjścia do innych stron internetowych, a nie koniec drogi.

Reid nie chciał powiedzieć, ile razy użytkownicy będą widzieć przeglądy, ale stwierdził, że Google skoncentruje się na oferowaniu ich, jeśli będą one mogły zapewnić „znaczącą wartość” oprócz tradycyjnego wyszukiwania.

Zaniepokojeni są jednak zwłaszcza wydawcy. Raptiv, firma pomagająca twórcom cyfrowym w budowaniu marek, szacuje, że 25% ruchu z wyszukiwania kierowanego do wydawców zniknie, jeśli Google szeroko wdroży „doświadczenia generowane przez wyszukiwanie”, czyli SGE, podobnie jak wprowadzona we wtorek wyszukiwarka generowana przez sztuczną inteligencję. „Budując środowisko zaprojektowane tak, aby utrzymać większy ruch w Google, mniej osób będzie odwiedzać poszczególne witryny, a przychody twórców ucierpią” – napisał w e-mailu Mark McCollum, dyrektor ds. innowacji w Raptive. „Więc Google zyska udziały i przychody, podczas gdy ci sami ludzie, którzy stworzyli treści, których użyli do zbudowania SGE, ulegną osłabieniu”.

READ  Jaki jest pomiar? | Zaufane recenzje

Dyrektorzy Google podkreślili, że w nowej erze sztucznej inteligencji wyszukiwarka pozostanie kluczowa. Na przykład Reed opisał nową funkcję „wyszukiwania wizualnego”, która wkrótce będzie dostępna w Laboratorium wyszukiwania Google. Dzięki niej użytkownicy będą mogli nagrać film przedstawiający zepsuty gadżet, na przykład odtwarzacz płyt, i poprosić Google o pomoc w przeglądzie sztucznej inteligencji. Badają problemy.

W poniedziałkowej rozmowie z reporterami Demis Hassabis, dyrektor generalny laboratorium Google zajmującego się sztuczną inteligencją DeepMind, poszedł dalej, prezentując zdolność Gemini do odpowiadania na zapytania. Hassabis zaprezentował Project Astra, prototyp asystenta AI, który może przetwarzać wideo i reagować w czasie rzeczywistym. W nagranej wcześniej prezentacji wideo pracownik przeszedł przez biuro, a asystent za pomocą aparatu w telefonie „widział” i odpowiadał na pytania dotyczące zdarzenia. Oprogramowanie poprawnie odpowiedziało na pytanie, w której dzielnicy Londynu znajduje się biuro, na podstawie widoku z okna, a także poinformowało pracownicę, gdzie zostawiła okulary. Hassabis powiedział, że wideo zostało nagrane „za jednym ujęciem w czasie rzeczywistym”.

„W dowolnym momencie przetwarzamy strumień różnych informacji zmysłowych, nadajemy mu sens i podejmujemy decyzje” – Hassabis powiedział o wersji demonstracyjnej Project Astra. „Wyobraźmy sobie agentów, którzy widzą i słyszą, co robimy, aby lepiej zrozumieć kontekst, w którym się znajdujemy, i szybko reagować w rozmowie, dzięki czemu tempo i jakość interakcji wydają się znacznie bardziej naturalne”. Pichai wyjaśnił później, że Google „ambitnie” chce wprowadzić w drugiej połowie tego roku niektóre funkcje Projektu Astra do podstawowych produktów firmy, zwłaszcza Gemini.

Aby kontynuować postęp w dziedzinie sztucznej inteligencji, Google musiał także zaktualizować swój zestaw modeli sztucznej inteligencji, a we wtorek firma podzieliła się kolejnymi postępami w tym zakresie. Ogłosiła wprowadzenie Gemini 1.5 Flash, które według Google jest najszybszym modelem sztucznej inteligencji dostępnym za pośrednictwem interfejsu programowania aplikacji, czyli API, którego programiści zwykle używają do automatyzacji zadań o dużej częstotliwości, takich jak podsumowywanie tekstu, dodawanie adnotacji do obrazów lub filmów lub wydobywanie danych z stoły.

Ujawniono także aktualizacje Gemini Nano, najmniejszego modelu sztucznej inteligencji Google, który wykracza poza wprowadzanie tekstu i obejmuje obrazy; Wprowadzono nowszą wersję rodziny modeli otwartych, Gemma 2, o zwiększonej wydajności; Powiedział, że firma osiągnęła lepsze standardy w swoim potężnym modelu sztucznej inteligencji Gemini 1.5 Pro.

We wtorek Google potwierdził, że programiści mogą używać Gemini 1.5 Pro do jednoczesnego przetwarzania większej liczby tekstu, wideo i audio – do 2 milionów „tokenów” lub fragmentów treści. Oznacza to około dwóch godzin wideo, 22 godzin audio lub ponad 1,4 miliona słów. Google twierdzi, że ta ilość przetwarzania znacznie przewyższa inne modele sztucznej inteligencji konkurencji, w tym OpenAI.

READ  Nowy Super Mario Bros. ma 15 lat i wciąż jest świetny

Google podkreśliło także swoje narzędzia i usługi mediów generatywnych, wprowadzając nowe modele i aktualizując istniejące. We wtorek ogłosiła nowy model generowania wideo, który nazywa się Veo i który produkuje wysokiej jakości filmy trwające dłużej niż minutę — w odpowiedzi na popularne narzędzie do tworzenia wideo OpenAI, Sora. Google umożliwia twórcom treści zapisywanie się na listę oczekujących w celu przetestowania produktu i twierdzi, że „w przyszłości” udostępni to niektóre możliwości Veo w YouTube Shorts i innych produktach wideo.

Firma Google ogłosiła aktualizacje Imagen 3, trzeciej wersji swojego modelu AI umożliwiającej zamianę tekstu na obraz, obejmujące ulepszenia takie jak redukcja zniekształceń obrazu. Google kontynuuje eksperymenty z muzyką generowaną przez sztuczną inteligencję za pośrednictwem usługi o nazwie Lyria, a także zestawu narzędzi muzycznych AI znanych jako Music AI Sandbox.

Duża część walki o dominację sztucznej inteligencji zależy od posiadania wydajnych półprzewodników zdolnych obsłużyć wszystkie przetwarzane dane. W tym celu Google ogłosiło nową wersję swojego chipa zaprojektowanego samodzielnie dla centrów danych, szóstą wersję modułu Tensor Processing Unit. Google podał, że najnowszy chip będzie 4,7 razy szybszy od swojego poprzednika, będzie miał dostęp do większej ilości pamięci i będzie oferował szybszą komunikację z innymi chipami.

W obliczu rosnących obaw dotyczących tego, jak firmy poradzą sobie z falą treści generowanych przez sztuczną inteligencję oraz obaw związanych z prawami autorskimi, Google poinformowało, że wdroży system znaku wodnego stworzony przez Gemini i model wideo Veo. System o nazwie SynthID osadza niezauważalne znaczniki cyfrowe w obrazach, dźwięku, wideo, a nawet tekście generowanym przez sztuczną inteligencję, dzięki czemu ludzie mogą śledzić określone źródło mediów. Google planuje wypuścić tę technologię w formie open source tego lata, aby mogli z niej korzystać zewnętrzni programiści.

Google próbował także przedstawić Gemini jako potężnego agenta, który może pomóc użytkownikom w codziennym życiu. Użytkownicy, którzy płacą 20 dolarów miesięcznie za plan subskrypcji premium AI firmy Google, będą mieli dostęp do wersji Gemini, która może przetwarzać 1 milion tokenów – czyli około 700 000 słów – jednocześnie, co według Google jest największym ze wszystkich modeli powszechnie dostępnych . ogólny. Firma stwierdziła, że ​​oznacza to, że ludzie mogą poprosić model sztucznej inteligencji o przetworzenie za nich dużych ilości danych, na przykład podsumowania 100 e-maili. Nowa funkcja o nazwie Gemini Live umożliwi abonentom Google Premium naturalną rozmowę z oprogramowaniem AI firmy na urządzeniach mobilnych, a nawet wstrzymuje lub przerywa w Gemini Live pytania w trakcie odpowiadania.

Google twierdzi, że pliki osób pozostaną prywatne i nie będą wykorzystywane do uczenia modeli sztucznej inteligencji. Abonenci będą mogli tworzyć spersonalizowane wersje Gemini, zwane klejnotami, służące konkretnym celom, takim jak szkolenie ich w zakresie biegania.

-Z pomocą Iana Kinga.

(Aktualizacja z komentarzem analityka w paragrafie 11.)

©2024 Bloomberg L.P

Randolph Howe

„Zła entuzjasta podróży. Irytująco skromny ćpun internetu. Nieprzepraszający alkoholiczek”.

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *