Wszystkie

Liderzy AI – Wywiad z Kacprem Bazylińskim, Neoteric

Z dumą prezentujemy kolejny wywiad z serii #LiderzyAI. Celem serii jest wprowadzenie Was za kulisy branży sztucznej inteligencji za pomocą rozmów ze specjalistami automatyzacji, ekspertami i dostawcami rozwiązań. W poprzedniej części, CEO Techmo przedstawił nam przyszłość branży voicebotów. Dziś zaprosiliśmy Kacpra Bazylińskiego,  lidera zespołu AI w Neoteric aby porozmawiać o wdrożeniach AI z perspektywy software house’u. Neoteric pomaga klientom korporacyjnym i start-upom wprowadzać innowacje dzięki sztucznej inteligencji: niezależnie od tego, czy jest to eksploracja danych, przewidywanie, prognozowanie, NLP czy niestandardowe implementacje sztucznej inteligencji.

Rozwiązania AI stają się coraz bardziej powszechne w biznesie; zaczynając od automatyzacji bazy danych, a kończąc na szerokich zmianach organizacyjnych pod szyldem transformacji cyfrowej. Opowiedz proszę czym zajmuje się Neoteric i jakie rozwiązania proponujecie swoim klientom?

Neoteric jest partnerem technologicznym dla firm, które chcą wdrażać innowacje. Pomagamy firmom rozpocząć transformację cyfrową – albo ją kontynuować, w zależności od potrzeb. Budujemy aplikacje, tworzymy UX, trenujemy algorytmy uczenia maszynowego, ale tak naprawdę niezależnie od rozwiązania, przede wszystkim pomagamy naszym klientom osiągnąć ich cele biznesowe za pośrednictwem technologii.

Zauważamy ostatnio trend, że wielu klientów, zwłaszcza w kategorii enterprise, stara się przenosić kompetencje technologiczne ‘inhouse’ – budują własne departamenty AI, rekrutują najlepszych inżynierów, etc. Jak to wygląda z Twojego punktu widzenia? Jaka jest przewaga software house’u jeśli chodzi o projektowanie, budowanie i wdrażanie projektów opartych o sztuczną inteligencję? 

To ma sens dla firm z kategorii enterprise. Takie firmy mają budżet i czas, są już wdrożone w pracę z projektami R&D. Budowanie rozwiązań in house ma swoje zalety, bo jednak wszystko pozostaje pod pełną kontrolą firmy, ale jednocześnie trzeba sobie zdawać sprawę z tego, że zatrudnienie zespołu świetnych naukowców czy inżynierów zajmuje masę czasu, no i będzie wymagało wypłacania im co miesiąc pokaźnych sum. Dodatkowym ryzykiem jest to, że nawet najbardziej wyszukany algorytm, nad którym będzie pracować zespół, po miesiącach developmentu może nie wnieść do firmy żadnej wartości. Tu nie chodzi o sam algorytm, tylko o to, żeby robił, co do niego należy – czyli rozwiązywał konkretny problem biznesowy.

Praca z software housem ma tę przewagę, że nie zrzuca na firmę odpowiedzialności za zatrudnianie zespołu AI, które często odbywa się trochę „w ciemno”, bo firmy rzadko potrafią zweryfikować doświadczenie kandydata. A firma zewnętrzna pokazuje portfolio, w którym może pochwalić się konkretnymi wynikami, ma poukładane procesy – a to już jakaś weryfikacja. 

Dla nas w centrum każdego projektu jest biznes klienta. Chcemy zdjąć z klientów zbędny stres i ryzyko wyrzucenia pieniędzy w błoto, więc zanim cokolwiek wdrożymy, zadajemy trochę trudnych pytań i testujemy różne rozwiązania. Taka współpraca sprawdza się i u średnich firm, które nie chcą mieć swoich zespołów AI, i u dużych, które szukają zespołu z biznesowym zacięciem i szybkiego testowania hipotez.

Co byś uznał aktualnie za największe wyzwanie jeśli chodzi o wdrożenia projektów AI?

Początek. Mimo że wszędzie w mediach społecznościowych widzimy udane wdrożenia oraz ogromne korzyści, jakie AI może przynieść, musimy pamiętać, że jakieś 80% wdrożeń kończy się porażką. Przykładem może być współpraca IBM Watson z University of Texas. Rozwiązanie nie spełniło oczekiwań, a koszt wyniósł około 62 mln dolarów. 

Z mojego doświadczenia wynika, że największym wyzwaniem jest strategia. Dokładnie przemyślany plan z jasno określonymi kamieniami milowymi jest po prostu niezbędny, inaczej błądzimy po omacku. AI powinniśmy traktować przede wszystkim jako narzędzie, które pomaga firmom osiągać ich cele. Dzięki takiemu podejściu możemy jasno sprecyzować kryteria sukcesu takiego wdrożenia, na podstawie których można określić metryki, które model ma osiągnąć. Takie rozwiązanie zapewnia też, że strategia AI jest dopasowana do strategii firmy, biznes ma świadomość potencjalnego ROI, a zespół inżynierów ML wie jak budować i trenować model. W mojej opinii to jest najważniejsze, ale to nie wyczerpuje tematu wyzwań i sama strategia nie może zapewnić sukcesu projektu R&D – dochodzi kwestia realnych założeń, jakości posiadanych danych, zbudowania PoC, który ma nam pokazać, czy faktycznie warto kontynuować prace  nad konkretnym rozwiązaniem.

Sztuczna inteligencja może być użyta w planowaniu, analizie bazy danych, data mining, mapowaniu, NLP… Jako software house zapewne otrzymujecie cały przekrój różnych zapytań ze strony klientów. Z jakim problemem zgłaszają się do was klienci najczęściej? 

Zwykle jest to kwestia jakiegoś procesu, który nie działa jak należy. Może to być choćby nieefektywny proces sprzedaży albo problem z retencją klientów czy pracowników. Do każdego problemu podchodzimy indywidualnie, dokładnie analizujemy proces, problemy, wymagania klienta. Dopiero wtedy wiemy jakie modele będą miały zastosowanie. Często budujemy np. systemy rekomendacyjne, ale są one różne i służą różnym celom. Jesteśmy otwarci na wiele rozwiązań opartych o AI – o ile są one w stanie rozwiązać problemy naszych klientów.

Widziałam, że prowadzicie Neoteric AI Sprint – opowiedz proszę o tej inicjatywie. Jak powstała, do czego służy i jakie widzicie korzyści? 

Nasz AI Sprint został stworzony w odpowiedzi na jedną z bolączek naszych klientów: że całe to AI tyle trwa, zjada im budżet, a czy finalnie zadziała – do końca nie wiadomo. Generalnie dla firm, dla których R&D nie jest codziennością, wizja zainwestowania pieniędzy w coś, co może, ale nie musi, przynieść korzyści, jest trochę zniechęcająca. Dużo mówi się o zaletach AI, a z drugiej strony nie da się tego zainstalować na pulpicie i odpalić w 5 minut, żeby rozwiązywało każdy możliwy problem. 

AI Sprint zaczyna się od walidacji hipotezy: klient zwraca się do nas z konkretnym problemem, odpowiadamy na pytanie “Jak?”, a potem sprawdzamy, czy (i na ile dobrze) to działa. AI Sprint pokazuje, czy AI wniesie wartość do danej firmy. Dzięki takiemu testowaniu jesteśmy w stanie szybko stwierdzić, jakie jest prawdopodobieństwo, że to wdrożenie się uda – a co za tym idzie, unikamy budowania modelu, który będzie taki sobie. Cały AI Sprint zajmuje mniej niż miesiąc, a po miesiącu mamy już dowód na to, że AI działa (albo nie – i dlaczego), zweryfikowany model, podstawę strategii danych (ang. data strategy) z naszymi rekomendacjami dotyczącymi wdrożenia i innych kwestii z nim związanych, jak np. komunikacja wyników, czy w ogóle kultura organizacyjna, w której bardziej polega się na danych. Wdrożenie AI to nie tylko pisanie algorytmu, ale przede wszystkim dużo pracy związanej z analizą procesów biznesowych, w których ma zostać wykorzystana sztuczna inteligencja, a dodatkowo też budowanie zaufania wśród osób, które z tym rozwiązaniem będą pracować.

Pozwolę sobie zadać kilka pytań technicznych. Model GPT-3 pokazał, iż dzięki niesamowicie wielkiej sieci i równie ogromnemu zbiorowi danych możemy stworzyć prapoczątek generalnej sztucznej inteligencji, która potrafi po kilku przykładach „nauczyć się” tłumaczenia lub sumaryzacji. Jak myślisz, kiedy otrzymamy pierwsze tego typu sieci wyspecjalizowane w innym języku niż angielski? 

Zbiór treningowy, który został wykorzystany do wytrenowania GPT-3 zawierał również inne języki, jak francuski czy niemiecki. Oczywiście jest to znacznie mniejsza część całego zbioru. Można znaleźć w tej chwili wyspecjalizowane modele dla innych języków, choć nie są tak duże jak wspomniany GPT-3, np. FlauBert w języku francuskim (373M). Ciężko podać konkretnie, kiedy możemy spodziewać się tak dużych sieci wyspecjalizowanych w innych językach – ktoś by musiał stworzyć podobnej wielkości zbiór danych w konkretnym języku oraz posiadać spory budżet. Koszt obliczeniowy do budowy AI rośnie wykładniczo. Szacunkowo wytrenowanie GPT-3 używając Tesli V100 kosztowałoby  jakieś 4.6M $ i zajęłoby trochę czasu – zaledwie jakieś 355 lat 😉 

Co ciekawe, niedawno naukowcy z LMU Munich stworzyli model, który składa się z 223M parametrów, a wyprzedził GPT-3 o 3% według skali SuperGLUE (General Language Understanding Evaluation).

Czy widzisz obecnie praktyczne zastosowania, w których tego typu sieć może przynieść konkretną, mierzalną wartość biznesową?

Tak rozbudowany model można z sukcesem zastosować w miejscach, gdzie już teraz wykorzystuje się NLP/NLU, np. w chatbotach. Co ciekawe, można też znaleźć przykłady, w których GPT-3 radzi sobie z Excelem czy z SQL, więc kto wie, czy nie znajdzie zastosowania w supporcie programistów.

Jak myślisz, która branża jako pierwsza wdroży rozwiązania oparte o modele NLP z parametrami liczonymi w bilionach („billions”)?

Jeżeli chodzi o miliardy (ang. billions), to już w tym momencie jest takie rozwiązanie – największa wersja GPT-3 jest zbudowana z około 175 miliardów parametrów.
Co do bilionów (ang. trillions), to nie mam zielonego pojęcia – wymagałoby to ogromnych nakładów mocy obliczeniowej.

Natomiast jeśli chodzi o zastosowanie, to wydaje mi się, że docelowo branża prawnicza – przy przeszukiwaniu podobnych spraw, efektywniejszym szukaniu odpowiedzi, a nawet generowaniu tekstów. Widzę tam spory potencjał dla zautomatyzowania pracy i ograniczenia kosztów. Aktualnie NLP cieszy się popularnością w branży zdrowotnej (healthcare), w handlu, firmach telekomunikacyjnych i high tech.

Deep learning najpierw zatrząsł światem image classification, następnie natural language processing i automatic speech recognition, jak sądzisz, co będzie następną rewolucją technologiczną? Jaka to będzie sfera wyzwań i dlaczego właśnie ona? Jakich możemy spodziewać się praktycznych zastosowań w 2021?

Deep learning oprócz NLP jest bardzo często stosowany w computer vision. Oprócz klasyfikacji obrazu (image classification), algorytmy radzą sobie świetnie z innymi problemami, jak np. object detection (słynne YOLO – “you only look once”, czyli detekcja obiektów w czasie rzeczywistym). Dla mnie jednak najbardziej interesujące jest 3D pose estimation, czyli tworzenie modelu 3D pozy człowieka ze zdjęcia 2D. Computer vision i NLP cieszą się ogromnym zainteresowaniem badaczy, ponieważ ich skuteczność w przykładowych zadaniach nie jest jeszcze tak skuteczna jak ludzka. Owszem, jest bardzo wysoka, ale nadal troszkę brakuje, by dorównać człowiekowi – uważam to za główną motywację, byłoby to największym osiągnięciem. Ciężko powiedzieć, czy w 2021 doczekamy się jakichś dużych projektów komercyjnych z wykorzystaniem 3D pose estimation, natomiast ich zastosowanie może być szerokie: analiza zawodów sportowych, tworzenie dokładniejszych modeli w grach komputerowych. Wiem, że korzystają już z tego np. niektóre aplikacje do jogi, dzięki czemu oceniają wybraną asanę.