Tomasz Stachlewski (Amazon Web Services) – Nigdy nie oglądamy się na konkurencję

Artur Kurasiński
23 czerwca 2023
Ten artykuł przeczytasz w 3 minut

Artur Kurasiński – Amazon uruchomił usługę AWS o nazwie Bedrock, która ma na celu umożliwienie firmom tworzenia aplikacji przy użyciu jednego z kilku różnych modeli fundamentów opartych na sztucznej inteligencji. Czy to oznacza, że Amazon chce być „neutralną” platformą na której każdy może hostować swoje narzędzia?

Tomasz Stachlewski (Head of Technology CEE, AWS) – Dziś AWS demokratyzuje dostęp do generatywnej sztucznej inteligencji. Dzięki Bedrockowi i innym narzędziom AWS, jak np. CodeWhisperer, firmy zyskują elastyczność: mogą budować własne modele na podstawie dedykowanej infrastrukturą pod projekty ML; wykorzystać wstępnie przeszkolone modele jako podstawę do budowania nowych aplikacji; lub korzystać z usług z wbudowaną generatywną sztuczną inteligencją bez konieczności posiadania specjalistycznej wiedzy w tym zakresie.

Co ważne, zyskują oni też bezpieczeństwo – bo dane, których ich pracownicy będą używać nie wydostaną się na zewnątrz bez ich zgody. Dostęp do różnych sposobów korzystania z AI jest kontynuacją drogi zapoczątkowanej przez AWS wiele lat temu – która zakłada, że konkretny problem wymaga konkretnego rozwiązania – i usługa Bedrock wpasowuje się w to idealnie ponieważ daje możliwość i dostęp nie do pojedynczego modelu AI, ale do szeregu najlepszych dostępnych na rynku.

Bedrock składa się z Titan Text oraz Titan Embeddings. Czym dokładnie są te dwa modele językowe?

Titan Text to generatywny duży model językowy (LLM) do zadań takich jak podsumowywanie, generowanie tekstu (na przykład tworzenie postów na blogu), klasyfikacja, otwarte pytania i odpowiedzi oraz wydobywanie informacji. Służy do automatyzacji zadań związanych z językiem naturalnym, takich jak podsumowywanie i generowanie tekstu.

Titan Embeddings to LLM, który tłumaczy tekstowe dane wejściowe (słowa, frazy lub ewentualnie duże jednostki tekstu) na reprezentacje numeryczne (znane jako embeddings), które zawierają semantyczne znaczenie tekstu. Chociaż ten LLM nie generuje tekstu, jest przydatny w aplikacjach takich jak personalizacja i wyszukiwanie, gdzie pomaga zwiększyć dokładność wyszukiwania i poprawia spersonalizowane rekomendacje.

Modele językowe Titan zbudowane są także w celu wykrywania i usuwania szkodliwych treści w danych, odrzucania nieodpowiednich treści w danych wejściowych użytkownika i filtrowania danych wyjściowych modelu, które zawierają nieodpowiednie treści (takie jak mowa nienawiści, wulgaryzmy i przemoc). Wspierają odpowiedzialne korzystanie z AI poprzez ograniczanie nieodpowiednich lub szkodliwych treści.

Moje dane, które wgram do modeli językowych i aplikacji, które zbuduję z wykorzystaniem Bedrock są bezpieczne i nie będą wykorzystywane do trenowania innych modeli?

Użytkownicy mogą korzystać z Bedrock bez obawy, że przekazywane systemowi dane wyciekną do ogólnej puli danych stosowanych do szkolenia innych modeli. To stanowi odpowiedź na jedno z najpoważniejszych zastrzeżeń zgłaszanych przez organizacje i firmy chcące budować i korzystać z własnych wytrenowanych modeli AI .

Zwłaszcza firmy przetwarzające dane wrażliwe klientów (np. firmy z branży usług finansowych czy opieki zdrowotnej) obawiają się o bezpieczeństwo danych. Bedrock jest rozwiązaniem na te obawy i gwarantuje pełną gwarancję, że dane nie będą wykorzystane w sposób niepowołany.

Wygląda na to, że strategia Amazon związana z generatywną AI koncentruje się na programistach?

Nasza strategia – również ta niezwiązana z AI – zawsze koncentruje się na klientach. Mówimy, że 90% tego co robimy oparte jest o potrzeby zgłaszane przez klientów. Pozostałe 10% to również ich potrzeby, tylko te jeszcze nieuświadomione.

Jesteśmy świadkiem początku epoki generatywnej AI – pewne usługi, takie jak wcześniej wspominany CodeWhisper, są faktycznie skierowane głównie dla programistów – ale jestem pewien, że już niedługo będziemy świadkami kolejnych niesamowitych możliwości opartych o ten nowy typ sztucznej inteligencji.

Amazon chce wykorzystać sztuczną inteligencję do analizy danych w celu określenia, gdzie występuje zapotrzebowanie. W ten sposób produkty mogą być przechowywane w pobliskich magazynach w celu skrócenia czasu dostawy. Czy to jedyne zastosowanie AI w e-commerce w Amazon?

Z jednej strony rzeczywiście mamy do czynienia z wykorzystaniem AI do budowania i śledzenia łańcuchów dostaw, ale z drugiej strony to właśnie inteligentna rekomendacja oparta o AI i takie usługi jak Personalize stanowią istotny element sukcesu Amazon na świecie.

Innym ciekawym przykładym opartym o AI jest wirtualny asystent, który pozwala przez aparat w telefonie komórkowym „przymierzyć” na własnych nogach buty a następnie kupić je – oczywiście na Amazon. Wydaje się zatem, że prościej wskazać obszary, gdzie AI nie jest wykorzystywane w e-commercie w Amazon niż odwrotnie.

W 2021 roku usługi związane z AWS były odpowiedzialne za wygenerowanie 18,5 miliarda dolarów zysku operacyjnego (czyli 74%). AWS jest wiodącą platformą chmurową na świecie (odpowiada za 33% rynku). To ogromny sukces, ale konkurencja nie śpi…

My w AWS nigdy nie oglądamy się na konkurencję.  Jesteśmy skupieni na klientach. Oczywiście wiele firm tak mówi, tylko bardzo niewiele podąża tą drogą. Większość dużych firm technologicznych koncentruje się na konkurencji. Patrzą na to, co robią konkurenci i próbują ich wyprzedzić. To może być dobra strategia, ale to nigdy nie była nasza strategia.

Może zainteresują Cię również:



facebook linkedin twitter youtube instagram search-icon