Czy SentiOne zbuduje ChatGPT dla biznesu? Q&A na temat najnowszych modeli AI
ChatbotGPT, sztuczna inteligencja generująca odpowiedzi tekstowe, został udostępniony w listopadzie ubiegłego roku i zdążył wywołać sporo zamieszania. Dyskusje na jego temat dominowały w przestrzeni zarówno inżynierów pracujących nad sztuczną inteligencją, jak i w świecie biznesu. W SentiOne zajmujemy się modelami sztucznej inteligencji od wielu lat, zainwestowaliśmy już 42 miliony złotych by zbudować zaawansowane modele AI w języku polskim, angielskim, niemieckim i hiszpańskim. Postanowiliśmy zebrać najczęściej pojawiające się pytania na temat ChatGPT i zadać je naszym specjalistom w SentOne: inżynierom AI, produktowcom oraz CTO. Poniżej znajdziecie ich odpowiedzi!
- Czy ChatGPT zastąpi ludzi?
- Na które zawody ChatGPT będzie miał najwięksy wpływ wpływ?
- Czy ChatGPT zastąpi dziennikarzy?
- W jakim obszarze ChatGPT może być wykorzystywany jako narzędzie, a nie jako zabawka?
- Jakie są zalety ChatGPT?
- Jakie są wady ChatGPT?
- Czy modele AI zachęcają do pracy niesamodzielnej?
- Czy SentiOne buduje model AI podobny do ChatGPT?
- Skąd sztuczna inteligencja czerpie swoją wiedzę?
- Czy boty typu ChatGPT nie zaczną przeklinać skoro uczą się na takich danych jak wypowiedzi internautów?
- Czy ChatGPT rozumie pytania, któremu mu się zadaje?
- Jak przystosować ChatGPT do zastosowania w biznesie?
- Na jakiej zasadzie działają modele AI SentiOne?
- Czy modele SentiOne to klasyczny chatbot, który mówi „nie rozumiem, zaraz połączyć się z konsultantem”?
- Czy SentiOne może zbudować model językowy na poziomie ChatGPT dla języka polskiego?
- Czy rozwiązanie opracowywane przez SentiOne będzie tak łatwe w obsłudze, jak ChatGPT?
- Czy SentiOne wspiera instytucje edukacyjne i badawcze tworząc swoje modele AI?
- Czy sztuczna inteligencja powinna być moralna, a może wystarczy, aby algorytmy AI były skuteczne?
- Kiedy SentiOne byłoby w stanie zaprezentować światu swoją odpowiedź na ChatGPT?
Czy ChatGPT zastąpi ludzi?
ChatGPT jako generatywna sztuczna inteligencja, przede wszystkim tworzy treści – może napisać teksty piosenek, scenariusz filmu lub artykuł. Tak więc konkurencję widzą w nim przede wszystkim przedstawiciele zawodów, których podstawą jest tworzenie treści. Jednak należy pamiętać, że sztuczna inteligencja jak ChatGPT niesie za sobą, ciągle wiele ryzyk: nie do końca rozumie swoje odpowiedzi, nie osadza ich w kontekście, nie ma wszystkich aktualnych danych. Dodatkowo, w przypadku pracy z AI, to człowiek ma jeszcze dwa ważne zadania do wykonania: dostarczenie danych treningowych oraz wydanie polecenia sztucznej inteligencji (“prompt” po angielsku). W związku tym, nawet jeśli artykuły, teksty piosenek lub scenariusze filmów będą początkowo pisane przez AI – to następnie człowiek musi je zweryfikować pod kątem trafności, kreatywności i kontekstu.
“AI nie zastąpi ludzi, ale zastąpi tych którzy nie korzystają z AI”
Bartosz Baziński, programista, COO i współzałożyciel SentiOne
Na które zawody ChatGPT będzie miał najwięksy wpływ wpływ?
Pamiętajmy, że wpływ może być pozytywny lub negatywny. Jedni postrzegają ChatGPT jako zagrożenie, a inni jako możliwość ułatwienie swojej pracy. Przykładowo, marketerzy dzięki AI mogą napisać 20 sloganów reklamowych w ciągu 10 sekund. Nauczyciele, mogą zlecić sztucznej inteligencji by napisała za nich “test sprawdzający wiedzę na temat pantofelka, składający się z 10 pytań i przykładowych odpowiedzi wielokrotnego wyboru”.
Business Insider wymienia 10 zawodów, które niedługo mogą zostać zrewolucjonizowane przez sztuczną inteligencję:
- Pracownicy mediów (dziennikarze, copywriterzy)
- Prawnicy (adwokaci, asystenci prawni)
- Analitycy rynku
- Nauczyciele
- Praca w finansach (analitycy finansowi, doradcy finansowi)
- Traderzy giełdowi
- Graficy
- Księgowi
- Specjaliści ds. obsługi klienta
- Progamiści
Czy ChatGPT zastąpi dziennikarzy?
Jeśli mówimy o generatywnej sztucznej inteligencji, która tworzy treści, pisze artykuły lub odpowiada na pytania – to jest ona na tyle mądra, na ile pozwolą jej dane treningowe. A to oznacza, że ludzie ciągle muszą TWORZYĆ nowe treści i nowe dane. Bez dziennikarzy, którzy relacjonują wydarzenia, opisują rzeczywistość, bez publicystów ich argumentów – sztuczna inteligencja nie ma się od kogo uczyć! AI nie zinterpretuje za nas świata. ChatGPT został oparty tylko na danych aktualnych do roku 2020. Co to oznacza? Że nie zna wyniku finału mundialu, nie wie jakie są aktualne obostrzenia covidowe ani kto dostał Nobla. Tak więc, ludzie są ciągle bardzo potrzebni do relacjonowania i opisywania naszego świata.
W jakim obszarze ChatGPT może być wykorzystywany jako narzędzie, a nie jako zabawka?
ChatGPT oprócz odpowiadania na śmieszne pytania czy pisania wierszyków, może mieć kilka zastosowań jako realne narzędzie pomagające w pracy. Jako generatywna sztuczna inteligencja może być wykorzystywana przez uczniów i studentów do pisania wypracowań i rozprawek. Natomiast, może być też wykorzystywana przez nauczyciel do pisania sprawdzianów lub testów. Nauczyciel może zlecić technologii, by wymyśliła i napisała za nich np. „test na temat wojny krzyżackiej, podaj 10 propozycji pytań wielokrotnego wyboru.”
Kolejnym zastosowaniem dla generatywnej sztucznej inteligencji jest marketing. ChatGPT może napisać za marketerów opisy produktów, treści reklamowe, 20 sloganów do reklam albo wręcz scenariusz filmu reklamowego w określonym stylu. Pamiętajmy jednak, że nie zastąpi to działów marketingu, wszak pracownik musi jeszcze sprawdzić poprawność i kreatywność tekstów i sloganów wymyślonych przez ChatGPT. Dodatkowo, to marketer musi ustawić i skonfigurować reklamy, które użyją sloganów od AI. Tak więc, ChatGPT będzie w stanie znacząco przyspieszyć i ułatwić pracę wielu działom marketingu, jednak ich nie zastąpi.
Mówi się też, że ChatGPT potrafi programować, bo został nauczony na bardzo dużych zbiorach kodu, więc potrafi już teraz kończyć kod, który programista zaczął pisać.
Jakie są zalety ChatGPT?
“Największą zaletą modelu ChatGPT jest to, że został zbudowany na kolosalnej, gigantycznej wręcz ilości danych. I właśnie to stoi za jego sukcesem, powoduje, że odpowiedzi bota są takie zgrabne, zbudowane ze zdań złożonych i pięknie opisują abstrakcyjne pojęcia. Modele ChatGPT dostały bardzo dużo danych wejściowych do nauki. Dodatkową zaletą, sposób optymalizacji ChatGPT. Jest to model językowy wytrenowany na ogromnej ilości danych z wielką liczbą parametrów (kontekst dla każdego słowa ma 2048 wyrazów) i oddzielny model do scoringu odpowiedzi (z wieloma punktami odniesienia). W rezultacie, model jest zoptymalizowany pod kątem przygotowywania odpowiedzi robiących duże wrażenie na odbiorcach “
Jakub Klimek – Head of SentiOne Research Team
Jakie są wady ChatGPT?
“Największy problem z ChatGPT polega na tym, że jest zbudowany w taki sposób, że może wprowadzać w błąd lub wręcz szerzyć dezinformację. ChatGPT to model tzw. blackbox („czarna skrzynka”), bot typu „pytanie – odpowiedź”. Wygeneruje odpowiedzi piękne językowo, ale błędne rzeczowo. Ten bot nie zrozumie, o co został zapytany – nie orientuje się w rzeczywistości, nie osadza informacji w kontekście. To powoduje, że jest on nie do zaakceptowania przez biznes”
Jakub Klimek Head of AI Research.
Z ChatGPT są związane jeszcze inne kontrowersje, np. tania siła robocza z Afryki wykorzystywana do manualnego sprawdzania modeli. Magazyn Time raportował, że Open AI outsourcował manualne anotowanie tekstów i nadawanie im tagów do firmy z Kenii, która płaciła pracownikom mniej niż 2 dolary za godzinę.
Ostatnią wadą ChatGPT jest koszt wytworzenia takiej technologii. OpenAI nie podaje, ile trwało wytrenowanie tak wielkiego modelu, ani ile zasobów sprzętowych pochłania jego dalsze nauczanie i generowanie odpowiedzi. Z doświadczenia wiemy, że wymaga to ogromnej liczby serwerów i mocy obliczeniowych. A to stanowi dużą barierę w przypadku wdrożeń biznesowych, np w bankach, ubezpieczeniach czy ecommercach. Już poprzedni model GPT-3 z 2020 roku OpenAI określił jako extremely expensive. Możemy więc tylko zgadywać, że ChatGPT jest jeszcze droższy. Zależnie od metody szacowania, wytrenowanie takiego modelu może kosztować od kilku do kilkudziesięciu milionów dolarów.
Czy modele AI zachęcają do pracy niesamodzielnej?
“Do tego, że modele AI zachęcają do pracy niesamodzielnej, podszedłbym od drugiej strony – zachęcam by WSZYSCY wspierali swoją pracę AI. Przykładowo, nauczyciele mogą zlecić technologii by wymyśliła i napisała za nich test na temat wojen z zakonem krzyżackim z 10 propozycjami pytań wielokrotnego wyboru. Czy to zastąpi nauczycieli? Nie, bo nauczyciel musi jeszcze zweryfikować czy ten test jest poprawny, i zapewne do wykorzystania będzie się nadawało 50-70% pytań. Czy to przyspieszy pracę nauczyciela? Tak, o te 50-70%. Nie obronimy się przed technologią, więc radzę, by nauczyć się z nią żyć i z niej korzystać, a nie dać się jej wykorzystać. Kolejny przykład to nauczenie dzieci korzystania z ChatGPT w taki sposób, by zdobywały nowe umiejętności – sprawdzania faktów i weryfikacji informacji. To ogromnie ważne umiejętności w czasach fake newsów! Na przykład można zadać pracę domową “spróbuj zadać takie pytanie, na które ChatGPT odpowie błędnie”. To spowoduje, że dzieciaki będą musiały zweryfikować odpowiedzi udzielane przez model AI, a przy okazji będą się bawić starając się “zagiąć” technologię. Technologia AI może znacząco przyspieszyć pracę wielu, wielu ludzi. I w mojej opinii sztuczna inteligencja nie zastąpi ludzi, ale zastąpi tych, którzy jej nie używają.
Bartosz Baziński, programista, COO i współzałożyciel SentiOne
Czy SentiOne buduje model AI podobny do ChatGPT?
SentiOne pracuje obecnie nad podobnym modelem AI, pod względem skali i trafności odpowiedzi, ale opartym na danych dziedzinowych z kluczowych dla nas branż – bankowości, ubezpieczeń, finansów. Nasze zbiory danych budujemy na podstawie monitoringu internetu, analizując miliony opinii i rozmów online, które następnie weryfikujemy i anotujemy, by były zdatne do nauki bota. Dodatkowo do naszego silnika rozumienia języka naturalnego dodajemy też dane od naszych klientów: historyczne zapisy rozmów z call center, scenariusze rozmów biura obsługi klienta, etc. Dzięki temu możemy wykorzystywać te modele do lepszego zrozumienia intencji użytkowników, szybszego budowania botów (ponieważ wymagana jest mniejsza liczba fraz do nauki), automatycznego testowania ich i uczynienia zachowań botów bardziej podobnymi do ludzkich. By poznać bliżej rozwiązanie SentiOne z zakresu konwersacyjnej sztucznej inteligencji zapraszamy do tego artykułu
Skąd sztuczna inteligencja czerpie swoją wiedzę?
“Sztuczna inteligencja czerpie wiedzę z danych treningowych i im większe i bardziej różnorodne zbiory danych, tym lepszy model możemy zbudować. Przykładowo w SentiOne sztuczna inteligencja zbudowana jest na podstawie publicznie dostępnych wypowiedzi internautów: komentarzy, blogów, artykułów, postów na social media. Dziennie zbieramy i analizujemy około 150 milionów danych tekstowych, które zasilają nasz silnik rozumienia języka naturalnego. Od 11 lat zbieramy wszystko to, co się dzieje w internecie i na podstawie tego np. nasz model nauczył się wyrazów bliskoznacznych. Czyli wie, że jak mówimy słowo pieniądze to też znaczy to to samo co „hajs”, „mamona” czy „kasa”
Michał Brzezicki – Współzałożyciel i CTO SentiOne
Czy boty typu ChatGPT nie zaczną przeklinać skoro uczą się na takich danych jak wypowiedzi internautów?
Takich przypadków w świecie botów było już sporo – jak np. bot Tay, zbudowany przez Microsoft na danych z Twittera, który bardzo szybko zaczął rozpowszechniać rasistowskie treści.
W przypadku modeli SentiOne nie ma możliwości na przeklinanie lub szerzenie dezinformacji. Wprowadzamy specjalne filtry, które oczyszczają dane treningowe z niepożądanych treści.
W przypadku ChatGPT 60 procent zbioru uczącego to były książki, a 40 procent internet. Tak więc istotne jest, aby dostawcy sztucznej inteligencji posiadają zróżnicowane dane treningowe: wiedzą dziedzinową z książek, encyklopedii, również z tym, co się dzieje w internecie. Dzięki temu boty będą mogły odpowiadać na różne pytania. O etyce w AI pisaliśmy więcej w artykule na temat nieuświadomionych uprzedzeń sztucznej inteligencji.
Czy ChatGPT rozumie pytania, któremu mu się zadaje?
ChatGPT nie rozumie naszych pytań, nie rozumie też swoich odpowiedzi, a mimo to wydaje nam się, że odpowiada bardzo logicznie. Dlatego, można powiedzieć, że ChatGPT udziela odpowiedzi pięknych językowo, ale błędnych rzeczowo. I tutaj tajemnica ukryta jest w tym, że ChatGPT posługuje się tak zwanym wielkim modelem językowym. Zadając mu konkretne pytanie, to tak naprawdę mówimy: „oto jest jakiś fragment tekstu. Powiedz mi, jak ten fragment może się dalej potoczyć?”. Innymi słowy: “zgodnie z modelem statystyki ludzkiego języka jakie słowa prawdopodobnie będą następne?”.
Przykładowo, jeśli napiszemy do sztucznej inteligencji: “Pierwszą osobą, która chodziła po Księżycu był… i proszę, dokończ”. To bot odpowie:” Neil Armstrong”. Nie odpowie tak dlatego, że „wie” o co my pytamy i że tą osobą, która chodziła po Księżycu był Neil Armstrong. Odpowie tak, bo w tym zbiorze uczącym, z którego korzystał wystarczająco często, po sformułowaniu “pierwsza osoba, która chodziła po Księżycu”, pojawiały się słowa „Neil Armstrong”.
Bartosz Baziński, programista, COO i współzałożyciel SentiOne
Jak przystosować ChatGPT do zastosowania w biznesie?
“Tym, czego brakuje ChatGPT, jest dokładna wiedza dziedzinowa. Powinien zostać przeszkolony przy użyciu zbiorów danych z określonej branży, od konkretnych klientów czy firm. Do tego można użyć historycznych zapisów rozmów z klientami, transkrypcji z call center, wiadomości od klientów na Messengerze, Twitterze lub WhatsAppie. Firmy potrzebują spersonalizowanych modeli, przeszkolonych w ich języku, korzystających z ich danych treningowych i bazy wiedzy o katalogach produktów. Wdrożenia biznesowe modeli AI muszą odzwierciedlać głos marki, być jej godnym zaufania rozszerzeniem. Bez tego ChatGPT będzie tylko nowinką technologiczną, ale bez szansy na skomercjalizowanie na dużą skalę.”
Agnieszka Uba – Head of Marketing, SentiOne
Na jakiej zasadzie działają modele AI SentiOne?
Modele SentiOne w porównaniu do ChatGPT, nie są skierowane do indywidualnego użytkownika, a bezpośrednio do do biznesu. Celem naszych modeli AI jest usprawnienie komunikacji na linii klient – firma. Z naszych rozwiązań korzystają firmy konsumenckie, które posiadają duże wolumeny rozmów z klientami (np na czacie albo call center) np. banki, ubezpieczyciele czy placówki medyczne. Rozwiązania SentiOne pomagają firmom odpowiadać na pytania kierowane przez ich użytkowników do działów obsługi klienta. Technologia SentiOne skupia się przede wszystkim na rozumieniu intencji użytkowników i optymalizuje modele AI pod kątem trafne wykrycia motywacji intencji. Aktualnie skuteczność wykrycia intencji przez modele AI SentiOne wynosi 94%. W rezultacie, nasze boty rozumieją, że jeżeli dzwoni klient i mówi “wracałem wczoraj z imprezy urodzinowej i jak szedłem przez park to karta wpadła mi do kanału, zróbcie coś”, to bot zrozumie tą intencję i zaproponuje zablokowanie karty i wydanie wtórnika.
Czy modele SentiOne to klasyczny chatbot, który mówi „nie rozumiem, zaraz połączyć się z konsultantem”?
Wręcz przeciwnie. Nasze rozwiązania charakteryzują się tym, że z bardzo wysoką skutecznością i potrafią zrozumieć, o co użytkownicy pytają. Więc w przypadku infolinii jednego z banków – największych banków w Polsce, nasi wirtualni asystenci odbierają już teraz połowę połączeń telefonicznych. Odpowiadają na pytania i klienci, z którymi nasi wirtualni asystenci rozmawiają, już nie potrzebują rozmawiać z człowiekiem. Bot jest w stanie rozwiązać 50% problemów, z którymi dzwonią. Więc pozwalamy firmom znacząco zaoszczędzić koszty w obszarze właśnie obsługi klienta, ale również dostarczyć natychmiastowe odpowiedzi na pytania klientów oraz skrócić czas oczekiwania na infolinii. Więcej o skuteczności NLU SentiOne pisaliśmy w tym artykule.
Czy SentiOne może zbudować model językowy na poziomie ChatGPT dla języka polskiego?
“Od początku swojego istnienia zainwestowaliśmy w rozwój sztucznej inteligencji ponad 42 mln zł. Obecnie firma monitoruje ponad 69,5 tys. źródeł w Internecie i przetwarza ponad 150 mln wzmianek dziennie, co przekłada się na wyższą skuteczność naszych modeli AI. Mamy 40 miliardów tekstów, które służą do zasilania silnika NLP (nauczania języka naturalnego, Natural Language Processing), unikalny know-how do tworzenia sztucznej inteligencji, Komisja Europejska wybrała nas w 2020 roku jako Top20 Deep Tech Scale up w Europie, a NCBiR przyznał nam największy grant badawczy (19 milionów zł) na rozwój AI w Polsce. Mamy też dwie linie biznesowe, które się idealnie uzupełniają.
Od 11 lat zajmujemy się monitoringiem internetu i analizujemy wypowiedzi w social media, na blogach, na forach na portalach, komentarze i inne. Dziennie przetwarzamy około 150 milionów wypowiedzi i opinii. Na podstawie tego nasz model nauczył się wyrazów bliskoznacznych, wie, że pieniądze to także hajs, mamona czy kasa. 5 lat temu postanowiliśmy wykorzystać te dane do nauczania sztucznej inteligencji i budowania zaawansowanych wirtualnych asystentów. Nie ma drugiej firmy z takimi kompetencjami, doświadczeniem i dostępem do danych.”
Kamil Bargiel, CEO SentiOne
Czy rozwiązanie opracowywane przez SentiOne będzie tak łatwe w obsłudze, jak ChatGPT?
“Modele ChatGPT są fajną nowinką dla codziennych użytkowników, dla nauczycieli czy blogerów. Natomiast SentiOne skupia się na stworzeniu równie zaawansowanego modelu AI, ale dla środowiska biznesowego. W praktyce dla użytkownika – tak, będzie to tak łatwe do używania jak ChatGPT, gdyż pracujemy w systemie low-code/no-code, który nie wymaga od użytkowników umiejętności kodowania. Nasz interfejs do budowania botów opiera się na gotowych komponentach, funkcjach typu “drag and drop”. Stale optymalizujemy platformę SentiOne pod kątem łatwości użytkowania. W 2022 roku dodaliśmy funkcje typu “bulk action”, bramkę głosową oraz integracje z Twilio. Chcemy, by z technologii konwersacyjnej sztucznej inteligencji mógł korzystać każdy pracownik w każdej firmie. Nasza platforma to intuicyjny interfejs do budowania botów opartych o AI, które mogą usprawnić szereg procesów w firmie.”
Tomasz Tomaszewski – Head of Product SentiOne
Czy SentiOne wspiera instytucje edukacyjne i badawcze tworząc swoje modele AI?
“SentiOne już dzieli się swoją wiedzą i know-how ze środowiskiem naukowym, a także udostępnia wielojęzyczne dane sieciom badawczym i indywidualnym badaczom do celów naukowych. Od 2016 roku bierzemy udział w grantach badawczych NCBiR, w ramach których współpracujemy z wieloma polskimi uniwersytetami. Dodatkowo regularnie piszemy publikacje naukowe w renomowanych czasopismach naukowych i udostępniamy opracowane korpusy na otwartej licencji w repozytoriach badawczych, zatem nasze odkrycia i analizy trafiają do domeny publicznej – badacze, studenci i inżynierowie mogą korzystać z tej wiedzy. Jesteśmy też częścią CLARINu Biz, sieci naukowej, które skupia badaczy z dziedziny NLP z całej Europy oraz polskie firmy. CLARIN – Common Language Resources & Technology Infrastructure – to ogólnoeuropejska infrastruktura naukowa, która tworzy narzędzia przetwarzania języka naturalnego skierowane do badaczy nauk humanistycznych i społecznych (a ostatnio też do przedsiębiorstw) służące do analizy bardzo dużych zbiorów tekstów”
Dr Agnieszka Pluwak – Koordynator grantu Senti Cognitive Services, product owner silnika NLU
Czy sztuczna inteligencja powinna być moralna, a może wystarczy, aby algorytmy AI były skuteczne?
Technologia, którą tworzymy musi być moralna – musi służyć nam ludziom, a nie przeciwko nam. Tak więc algorytmy sztucznej inteligencji powinny być pomocne, nie mogą szerzyć dezinformacji, wprowadzać błąd, przeklinać lub szerzyć obrażające opinii (ksenofobiczne, rasistsowskie, itd). Po co nam technologia, która wprowadza w błąd lub nas obraża? To bez sensu.
Jest jeszcze zagadnienie tzw. unconscious bias w AI, czyli nieświadomych uprzedzeń. Jeśli algorytmy AI oparte są o dane treningowe – teksty i wypowiedzi – które piszą ludzie, a ludzie mogą mieć swoje nieświadome uprzedzenia, to wtedy algorytmy AI będą te uprzedzenia powielać. Dlatego tak ważne jest by dane treningowe były różnorodne, pochodziły z różnych źródeł, nie tylko z internetu, ale i książek, zapisów rozmów, itd. Dodatkowo, warto by grupa badaczy nad AI nad jednym konkretnym modelem, też była różnorodna, by reprezentowali różne środowiska i poglądy. Wtedy jest szansa, że będzie to odzwierciedlone w ich algorytmach.
Etyka w AI to zagadnienie z którym całe środowisko się mierzy już od kilku lat. Jednym z problemów związanym z ChatGPT jest to, że został zbudowany na niezweryfikowanych danych i nie rozumie znaczenia swoich odpowiedzi. W rezultacie może wprowadzać w błąd, dostarczając długich i miłych odpowiedzi, które jednak mogą być mylące, nieprecyzyjne, a nawet zawierające fałszywe informacje. A to już droga do szerzenia dezinformacji – w pięknej formie zdań podrzędnie złożonych z wieloma przymiotnikami.
Kiedy SentiOne byłoby w stanie zaprezentować światu swoją odpowiedź na ChatGPT?
Dla klientów biznesowych są już teraz gotowe do wykorzystania modele AI o trafności rozumienia ludzkich intencji na poziomie nawet 96%. Z naszych rozwiązań korzystają banki, firmy telekomunikacyjne, ubezpieczyciele czy dostawcy prądu. Aktualnie mamy technologię dla języków polskiego, niemieckiego, angielskiego i hiszpańskiego, a w tym roku chcemy też dodać francuski i włoski. Tak więc plan na 2023 rok zakłada, aby stworzyć europejską odpowiedź na ChatGPT, ale taką, która będzie odpowiednia i skalowalna dla biznesu – mamy wszystkie zasoby i kompetencje, aby to zrobić.