Polak w pracach nad sztuczną inteligencją zawstydza Google’a i Microsoft

1136

Sztuczna inteligencja i psychoterapia mają wspólny korzeń- należą do nauk dotyczących naszej poznawczości. Są częścią kognitywistyki, nauki zajmującej się obserwacją i analizą działania zmysłów, mózgu i umysłu, w szczególności ich modelowaniem. – Jesteśmy pionierami tzw. neuro-symbolicznej sztucznej inteligencji, która pozwala na naukę z danych i wnioskowanie z wykorzystaniem wiedzy – mówi Michał Wroczyński, prezes start-upu Samurai Labs. I zapewnia, że udało mu się stworzyć narzędzie, które przewyższa rozwiązania Google’a i Microsoftu.

Michał Wroczyński początkowo chciał być lekarzem. Robił nawet specjalizację z psychiatrii, lecz ostatecznie zawodowo związał się z pracami nad sztuczną inteligencją. Od klasycznej pracy naukowej bardziej pociągające okazało się dla niego tworzenie zaawansowanych rozwiązań za pomocą start-upów czy, ściślej rzecz ujmując, deep techów.

Już na studiach, w połowie lat 90. założył start-up, w którym ideą było łączenie sztucznej inteligencji i medycyny – InterMed. Następnie przyszła praca w Fido Labs, które założył w 2013 roku w Kalifornii. Tam zajął się już stricte badaniem, jak nauczyć komputery rozumienia ludzkiego języka. – Sprawdzaliśmy, jak to robić nie tylko poprzez machine czy deep learning, ucząc model na podstawie oznaczonych danych, ale również jak dać komputerowi wiedzę, na fundamencie której mógłby wnioskować. I jak sprawić, by rozumiał gramatykę i logikę języka, i dzięki temu robił rzeczy, które dotąd były niemożliwe – opowiada Michał Wroczyński.

Efekty prac Fido Labs legły u podstaw działalności Samurai Labs, który – po przejęciu Fido Labs – rozwija jego osiągnięcia, ale już w jednym bardzo konkretnym celu: wykrywania i zapobiegania przemocy w internecie.

– Nie chodzi tylko o zwykły hejt, ale na przykład również o wykrywanie zachowań, które sugerują, że może dojść do próby samobójczej, a także o zapobieganie czynom pedofilskim. Do tego potrzebne jest bardzo dobre rozumienie języka, czyli budowa sztucznej inteligencji w innym paradygmacie niż tylko machine czy deep learning – tłumaczy Michał Wroczyński.

Google i Microsoft zostały w tyle

Dziś Samurai Labs ma już system, który osiąga lepsze wyniki w wykrywaniu internetowej przemocy niż narzędzia udostępniane przez Google’a i Microsoft. Jak mówi Wroczyński, w ich przypadku co najmniej połowa alarmów dotyczących możliwości zaistnienia przemocy jest fałszywa, przez co w praktyce systemy te nie mogą działać autonomiczne. Na ich końcu zawsze musi się znajdować moderator, który jest człowiekiem i który ostatecznie decyduje, co uznać za przemoc, a co nie… A to spowalnia prace systemu i de facto sprawia, że reakcja jest niemal zawsze spóźniona.

– W przypadku systemu Samurai zaledwie 4-5 proc. to fałszywe alarmy. Przy takim współczynniku możemy już myśleć o jego autonomicznym działaniu oraz o realnym zapobieganiu powstawaniu i eskalacji przemocy w sieci. A naprawdę czegoś takiego potrzebujemy, bo praktycznie wszystkie dziedziny życia przenoszą się dziś do sieci, w której jednak nie ma żadnej dobrej policji czy agencji bezpieczeństwa, która chroniłaby nas przed przemocą – przekonuje Michał Wroczyński.

Co więcej, system jest tak skonstruowany, by mógł prowadzić dialog ze źle zachowującym się internautą albo graczem. Wroczyński przekonuje, że wiele takich nieodpowiednich zachowań można zneutralizować w zarodku, poprzez zwykłe zwrócenie uwagi, że tak się nie robi. Dzięki temu naprawdę blokowanie wpisów i użytkowników jest rozwiązaniem stosowanym w ostateczności.

Przewaga nad konkurencją

Tajemnica sukcesu polega tu na skupieniu się na pracy w ramach poszczególnych języków, a nie próbie budowania narzędzia, które będzie uniwersalne dla wielu z nich. – Duże firmy technologiczne próbują budować systemy, które od razu będą globalne, a więc uniwersalne dla wielu krajów i języków. –  My skupiamy się na każdym języku z osobna – wchodzimy bardzo głęboko, żeby osiągnąć wymagany poziom jego rozumienia. To oczywiście wydłuża prace… Nasze narzędzie działa już w języku angielskim, niedawno nauczyliśmy je również języka polskiego, ale przed nami jeszcze sporo pracy związanej z innymi językami. Nie próbujemy więc łapać wszystkich srok za ogon, ale dzięki temu uzyskujemy wyniki, które są dziś nieosiągalne nawet dla najpotężniejszych firm w branży – wyjaśnia Michał Wroczyński.

Systemy bigtechów na przykład za każdym razem raportują przemoc, gdy w jakiejś wypowiedzi wykryją wulgaryzm. Prezes Samurai Labs zwraca jednak uwagę, że oznacza to działanie na oślep, bo liczy się kontekst zdania, a nie pojedyncze słowo.

– Cała zabawa polega na tym, żeby system mógł precyzyjnie identyfikować granice pomiędzy tym, co jest przemocą, a co nie. Trzeba więc nauczyć system tego, w jaki sposób ludzie używają języka do jej wyrażania. To, że ktoś przeklnie, nie oznacza przecież od razu przemocy. Nie możemy robić tak, że kiedy ktoś powie “you are fucking awesome”, to automatycznie go blokujemy… Wchodzimy wtedy w cenzurę i to działającą bardzo na oślep – wyjaśnia. – Jesteśmy pionierami tzw. neuro-symbolicznej sztucznej inteligencji, która pozwala na naukę z danych i wnioskowanie z wykorzystaniem wiedzy . Praca, aby system prawidłowo zrozumiał, co się dzieje w zdaniu, zajęła nam 2,5 roku. Dzięki współpracy z ekspertami, lingwistami, psychologami i pedagogami uczymy Samurai’a, jak odróżnić przemoc od zwykłej rozmowy.

Rośnie zupełnie nowy rynek

Wroczyński postanowił  może nie udoskonalać rozwiązania, które były już obecne na rynku, ale stworzyć narzędzie oparte na zupełnie nowym paradygmacie. Wymagało to lat żmudnej pracy, ale po jej wykonaniu daje to ogromne perspektywy na budowę silnej pozycji rynkowej.

Szef Samurai Labs przekonuje, że jego firma ma narzędzie, którego nie oferuje obecnie nikt inny i ocenia, że to właśnie jej okno na budowę silnej pozycji, które po prostu trzeba wykorzystać. – Nie musimy się przepychać między ciasno rozmieszczonymi innymi firmami. Wchodzimy na rynek, który dopiero się tworzy. Ale jestem przekonany, że będzie bardzo szybko rósł – ocenia.

Bo też, jego zdaniem, potrzeba ochrony przed cybernękaniem i przemocą w sieci staje się coraz bardziej paląca, zwłaszcza w przypadku dzieci. Wychowując się ze smartfonem w ręku, wiele z nich jest dziś niemal na stałe „podpiętych” do internetu, a rodzice właściwie nie mają sposobów, by to jakoś kontrolować.

Więcej na wnp.pl

ZOSTAW ODPOWIEDŹ

Proszę wpisać komentarz!
Please enter your name here