Rozpoczynamy Google Cloud Next ‘23
W tym tygodniu, pierwszy raz od 2019 roku Google Cloud Next ponownie powita tysiące uczestników biorących udział osobiście w konferencji w San Francisco. Zaprezentujemy wiele innowacji, nad którymi pracowaliśmy w zakresie infrastruktury, danych i sztucznej inteligencji, Workspace i cyberbezpieczeństwa.
- Infrastruktura: Najbardziej zaawansowana infrastruktura zoptymalizowana pod kątem sztucznej inteligencji dla firm do trenowania i obsługi modeli. Jest oferowana w naszych regionach Cloud i przeznaczona do uruchamiania w centrach danych za pomocą Google Distributed Cloud i na brzegu sieci.
- Vertex AI: Narzędzia deweloperskie do tworzenia modeli i aplikacji opartych na sztucznej inteligencji.
- Duet AI: To współpracownik AI, którego mocno zintegrowaliśmy z Google Workspace i Google Cloud. Duet AI w Workspace daje wszystkim użytkownikom możliwość skorzystania z pomocnika w pisaniu, eksperta od arkuszy kalkulacyjnych, kierownika projektu, osoby do robienia notatek na spotkaniach i kreatywnego projektanta wizualnego. Teraz wszystkie te zajęcia może przejąć ogólnodostępny Duet AI. W Google Cloud Duet AI współpracuje jak programista-ekspert, inżynier SRE, specjalista ds. baz danych, analityk danych i doradca ds. Cyberbezpieczeństwa. Będzie ogólnodostępny jeszcze w tym roku.
- Wiele innych istotnych ogłoszeń dotyczących narzędzi dla programistów, danych, bezpieczeństwa i naszej chmury.
- Cloud TPUv5e: Nasz najbardziej ekonomiczny, wszechstronny i skalowalny akcelerator AI.Teraz klienci mogą korzystać z jednej platformy Cloud TPU do prowadzenia zarówno szkoleń AI na dużą skalę, jak i analizy. Cloud TPU v5e skaluje się do dziesiątek tysięcy chipów i jest zoptymalizowany pod kątem wydajności. W porównaniu do Cloud TPU v4, zapewnia nawet dwukrotną poprawę wydajności trenowania w przeliczeniu na dolara i nawet 2,5-krotną poprawę wydajności analizy w przeliczeniu na dolara.
- A3 z układem GPU NVIDIA H100: Nasz superkomputer A3 z procesorem graficznym NVIDIA H100 będzie ogólnie dostępny w przyszłym miesiącu. Został on specjalnie zaprojektowany z myślą o wysokowydajnych sieciach i innych zaawansowanych rozwiązaniach. Umożliwia wdrażanie obecnie najbardziej wymagających innowacji w zakresie sztucznej inteligencji i dużych modeli językowych (LLM). Umożliwia to organizacjom osiągnięcie trzykrotnie wyższej wydajności treningowej w porównaniu z poprzednią generacją A2.
- GKE Enterprise: Umożliwia poziome skalowanie wielu klastrów wymagane dla najbardziej krytycznych obciążeń AI/ML. Klienci już teraz obserwują wzrost produktywności o 45%, przy jednoczesnym skróceniu czasu wdrażania oprogramowania o ponad 70%. Od dziś korzyści płynące z GKE, w tym automatyczne skalowanie, orkiestracja obciążeń i automatyczne aktualizacje, są teraz dostępne w Cloud TPU.
- Cross-Cloud Network: Globalna platforma sieciowa, która pomaga klientom łączyć i zabezpieczać aplikacje w różnych chmurach. Jest otwarta, zoptymalizowana pod kątem obciążeń i oferuje zabezpieczenia oparte na uczeniu maszynowym (ML), umożliwiając rozwiązania zero-trust. Zaprojektowana, aby umożliwić klientom łatwiejszy dostęp do usług Google z dowolnej chmury, Cross Cloud Network zmniejsza opóźnienia sieci nawet o 35%.
- Google Distributed Cloud: Stworzona, aby sprostać wyjątkowym wymaganiom organizacji, które chcą uruchamiać obciążenia brzegowe lub w swoim centrum danych.
- Aktualizacje PaLM 2, Imagen i Codey: Aktualizujemy PaLM 2 do 32 tys. okien kontekstowych, aby organizacje mogły z łatwością przetwarzać dłuższe dokumenty, takie jak prace naukowe i książki. Poprawiamy również atrakcyjność wizualną Imagena i rozszerzamy obsługę nowych języków w Codey.
- Narzędzia do tuningu: W przypadku PaLM 2 i Codey udostępniamy ogólny tuning adapterów, który może pomóc poprawić wydajność LLM na zaledwie 100 przykładach. Wprowadzamy również nową metodę dostrajania dla Imagen, zwaną Style Tuning, dzięki czemu organizacje mogą tworzyć obrazy dostosowane do ich konkretnych wytycznych dotyczących marki lub innych kreatywnych potrzeb przy użyciu niewielkiej ilości obrazów referencyjnych.
- Nowe modele: Ogłaszamy dostępność Llama 2 od Meta i Falcon LLM od Technology Innovative Institute, popularnego modelu open source, a także wstępnie ogłaszamy Claude 2 od Anthropic. W przypadku LLama 2 będziemy jedynym dostawcą chmury oferującym zarówno tuning adapterów, jak i RLHF.
- Rozszerzenia Vertex AI: Deweloperzy mogą uzyskiwać dostęp, tworzyć i zarządzać rozszerzeniami, które dostarczają informacje w czasie rzeczywistym, uwzględniają dane firmy i podejmują działania w imieniu użytkownika. Otwiera to nowe możliwości dla aplikacji generujących sztuczną inteligencję, które mogą działać jako rozszerzenie przedsiębiorstwa, dzięki możliwości dostępu do zastrzeżonych informacji i podejmowania działań na platformach innych firm, takich jak system CRM lub poczta e-mail.
- Colab Enterprise: Ta zarządzana usługa łączy w sobie łatwość obsługi notebooków Google Colab z funkcjami bezpieczeństwa i zgodności na poziomie organizacji. Analitycy danych mogą używać Colab Enterprise do wspólnego przyspieszania przepływów pracy AI z dostępem do pełnego zakresu możliwości platformy Vertex AI, integracji z BigQuery, a nawet uzupełniania i generowania kodu.
- Duet AI w Google Meet: Duet AI będzie robić notatki podczas połączeń wideo, wysyłać podsumowania spotkań, a nawet automatycznie tłumaczyć napisy w 18 językach. Ponadto, aby zapewnić każdej osobie biorącej udział w spotkaniu online taki sam stopień natężenia dźwięku czy ekspozycji, Duet AI w Meet pomoże w dostosowaniu studyjnego oświetlenia i studyjnego dźwięku.
- Duet AI w Czacie Google: Będziecie mogli czatować bezpośrednio z Duet AI, aby zadawać pytania dotyczące treści, otrzymać podsumowanie dokumentów udostępnionych w przestrzeni i nadrobić zaległości w nieodebranych rozmowach. Dostarczyliśmy również odświeżony interfejs użytkownika, nowe skróty i ulepszone wyszukiwanie, abyście mogli być na bieżąco z rozmowami.
- Rozwoju oprogramowania: Duet AI zapewnia specjalistyczną pomoc w całym cyklu życia oprogramowania i wpływa na produktywność programistów. Oprócz uzupełniania kodu i jego generowania, może pomóc w szybszej modernizacji aplikacji, wspierając programistów w refaktoryzacji kodu; dzięki wykorzystaniu Duet AI w Apigee można teraz łatwo tworzyć interfejsy API i integracje za pomocą prostych podpowiedzi w języku naturalnym.
- Operacji na aplikacjach i infrastrukturze: Operatorzy mogą rozmawiać z Duet AI w języku naturalnym w wielu usługach bezpośrednio w Google Cloud Console. Pozwala to sprawnie uzyskać informacje "jak to zrobić" na temat konfiguracji infrastruktury, najlepszych praktyk wdrażania oraz zaleceń ekspertów dotyczących optymalizacji kosztów i wydajności.
- Analizie danych: Duet AI w BigQuery zapewnia kontekstową pomoc przy pisaniu zapytań SQL, a także kodu Python, generuje pełne funkcje i bloki kodu, automatycznie sugeruje uzupełnienia kodu i wyjaśnia instrukcje SQL w języku naturalnym, a także może generować rekomendacje na podstawie schematu i metadanych. Możliwości te pozwalają zespołom zajmującym się danymi skupić się bardziej na wynikach biznesowych.
- Przyspieszaniu i modernizacji baz danych: Duet AI w Cloud Spanner, AlloyDB i Cloud SQL pomaga generować kod do strukturyzacji, modyfikacji lub zapytań dotyczących danych przy użyciu języka naturalnego. Wprowadzamy również moc Duet AI do Database Migration Service (DMS), pomagając zautomatyzować konwersję kodu bazy danych, takiego jak procedury składowane, funkcje, wyzwalacze i pakiety, których nie można przekonwertować za pomocą tradycyjnych technologii tłumaczenia.
- Operacji bezpieczeństwa: Wprowadzamy Duet AI do naszych produktów bezpieczeństwa, w tym Chronicle Security Operations, Mandiant Threat Intelligence i Security Command Center, które umożliwiają specjalistom ds. bezpieczeństwa skuteczniejsze zapobieganie zagrożeniom.
- BigQuery Studio: Pojedyncze środowisko pracy dla inżynierii danych, analityki i obciążeń predykcyjnych. BigQuery Studio pomaga zwiększyć wydajność zespołów zajmujących się danymi. Ponadto, dzięki nowym integracjom z modelami Vertex AI Foundation, pomagamy organizacjom w integracji AI z ich data lakehouses, wykorzystując innowacje z zakresu analizy między chmurami, zarządzania i bezpiecznego udostępniania danych.
- AlloyDB: Dziś przedstawiamy AlloyDB AI, integralną część AlloyDB, naszej usługi bazodanowej kompatybilnej z PostgreSQL. AlloyDB AI oferuje zintegrowany zestaw funkcji do łatwego tworzenia aplikacji GenAI, w tym wysokowydajnych zapytań wektorowych, które są nawet 10 razy szybsze niż standardowe PostgreSQL. Ponadto dzięki AlloyDB Omni można również uruchomić AlloyDB praktycznie wszędzie - lokalnie, w Google Cloud, AWS, Azure lub za pośrednictwem Google Distributed Cloud.
- Partnerzy Data Cloud: Nasz ekosystem otwartych danych jest atutem dla strategii generowania sztucznej inteligencji klientów, a my stale poszerzamy zakres rozwiązań partnerskich i zbiorów danych dostępnych w Google Cloud. Nasi partnerzy, tacy jak Confluent, DataRobot, Dataiku, Datastax, Elastic, MongoDB, Neo4j, Redis, SingleStore i Starburst, wprowadzają nowe możliwości, aby pomóc klientom przyspieszyć i usprawnić rozwój sztucznej inteligencji za pomocą danych. Nasi partnerzy dodają również więcej zestawów danych do Analytics Hub, których klienci mogą używać do tworzenia i trenowania modeli sztucznej inteligencji. Obejmuje to zaufane dane z Acxiom, Bloomberg, Dun & Bradstreet, TransUnion, ZoomInfo i innych.
- Mandiant Hunt for Chronicle: Usługa ta integruje najnowsze informacje ekspertów Mandiant na temat zachowań cyberprzestępców z możliwością szybkiego analizowania i przeszukiwania danych bezpieczeństwa przez Chronicle Security Operations. Dzięki temu rozwiązaniu klienci uzyskają wsparcie na najwyższym poziomie bez obciążenia związanego z dodatkowym zatrudnieniem, narzędziami i szkoleniami.
- Bezobsługowe skanowanie luk w zabezpieczeniach: Te funkcje zarządzania stanem w Security Command Center wykrywają luki w systemie operacyjnym, oprogramowaniu i sieci na maszynach wirtualnych Google Compute Engine.
- Zaawansowane zabezpieczenia sieciowe: Cloud Firewall Plus dodaje zaawansowaną ochronę przed zagrożeniami i funkcje zapory nowej generacji (NGFW) do naszej rozproszonej usługi zapory ogniowej, obsługiwanej przez Palo Alto Networks. Network Service Integration Manager umożliwia natomiast administratorom sieci łatwą integrację zaufanych urządzeń wirtualnych NGFW innych firm w celu inspekcji ruchu.
- Zabezpieczone obciążenia w Japonii: Otoczenie biznesowe niektórych klientów i jego regulacje mogą wymuszać rezydencję danych w naszych japońskich regionach, opcje lokalnej kontroli kluczy szyfrowania i przejrzystość dostępu administracyjnego. Kontynuujemy również rozwój naszej inicjatywy partnerskiej w zakresie rozwiązań regulowanych i suwerenności, aby wprowadzać innowacyjne rozwiązania innych firm do regulowanych środowisk chmurowych klientów.
- Docusign pilotuje nowe funkcje sztucznej inteligencji, zbudowane przy użyciu Vertex AI, dla ponad miliarda swoich użytkowników. Obejmuje to nowego "inteligentnego asystenta umów" w Docusign, który może podsumowywać, wyjaśniać i odpowiadać na pytania dotyczące złożonych umów i innych dokumentów.
- SAP współpracuje z nami nad tworzeniem nowych rozwiązań wykorzystujących dane SAP i Vertex AI, które pomogą organizacjom zastosować sztuczną inteligencję w ważnych przypadkach biznesowych, takich jak usprawnienie produkcji motoryzacyjnej lub poprawa zrównoważonego rozwoju.
- Aplikacje Workday dla finansów i HR są teraz dostępne w Google Cloud i współpracują z nami nad opracowaniem nowych możliwości sztucznej inteligencji w ramach przepływu Workday, w ramach ich strategii wielochmurowej. Obejmuje to możliwość generowania wysokiej jakości opisów stanowisk i udostępniania Google Cloud gen AI twórcom aplikacji za pośrednictwem interfejsu API umiejętności w Workday Extend, pomagając jednocześnie zapewnić najwyższy poziom bezpieczeństwa danych i zarządzania najbardziej wrażliwymi informacjami klientów.