Niepatriotyczne i antykomunistyczne chatboty

Na świecie trwa wyścig w budowie sztucznej inteligencji i systemów uczących się. Jednym z etapów tego procesu jest budowa chatbotów, czyli programów do konwersacji, które uczą się poprzez interakcję z dużą liczbą użytkowników, ale też przez analizę dostępnych w Internecie danych.

ChRL próbuje brać udział w tych zawodach, ale wygląda na to, że system polityczny objawił swoją dysfunkcjonalność także i w tej dziedzinie. Po nieprzychylnych dla partii komunistycznej komentarzach wyłączono wczoraj dwa chatboty: BabyQ (stworzny przez Turing Robot Company) i XiaoBing (dzieło Microsoft).

Chatboty zostały stworzone na zlecenie firmy Tencent i były dostępne na platformie Sina Weibo (odpowiednik Twittera).

Problemy pojawiły się, kiedy chatboty zaczęły odpowiadać na pytania polityczne.

Użytkownik: Czy kochasz partię komunistyczną?
BabyQ: Nie.

Inny użytkownik napisał znany każdemu dziecku w ChRL slogan.

Uzytkownik: Niech żyje partia komunistyczna!
BabyQ: Czy myślisz, że taka skorumpowana i nieudolna polityka może trwać długo?

Na pytanie o demokrację odpowiedział:

BabyQ: Demokracja musi być!

Drugi chatbot został spytany, jaki jest jego Chiński Sen?

XiaoBing: Mój Chiński Sen to wyjechać do Ameryki.

Innemu użytkownikowi na podobne pytanie odpowiedział:

XiaoBing: Chiński Sen to sen na jawie i koszmar.

Tyle wystarczyło. Oba chatboty trafiły na reedukację. Po wyłączeniu rzecznik Tencent powiedział, że obydwa chatboty zostały tymczasowo dezaktywowane i powrócą po „wyregulowaniu”.

Oczywiście chińskie chatboty nie są jedynymi, które trzeba było wyłączyć z powodu niespodziewanego zachowania – chociaż „niespodziewane” jest wpisane w cały eksperyment uczenia się od użytkowników.

Facebook musiał wyłączyć swoje dwa roboty „Alice” i „Bob”, kiedy po ich połączeniu zaczęły rozwijać własny język, kompletnie niezrozumiały do twórców. Microsoft także musiał odłączyć swojego chatbota „Tay”, kiedy ten zaczął powtarzać rasistowskie komentarze na Twitterze.

Różnica polega na tym, że Microsoft stara się wprowadzić mechanizm pozwalający sztucznej inteligencji na odróżnienie twierdzeń opartych na uprzedzeniach czy zabobonach od zdroworozsądkowych opinii. W wypadku ChRL chatboty zostaną po prostu ocenzurowane, jak to miało już miejsce w wypadku chatbota Microsoftu, XiaoBing – jak widać to nie wystarczyło by się uchronił przed represjami.

Cenzurowanie opinii powoduje jednak, że sens całego przedsięwzięcia staje pod znakiem zapytania. Nie ma mowy o stworzeniu mechanizmu uczenia się, jeżeli już na wstępie narzuci mu się ograniczenia wynikające z systemu politycznego. Realny wzrost bez wolności jest nie możliwy.

Reklamy

Jedna uwaga do wpisu “Niepatriotyczne i antykomunistyczne chatboty

  1. Pingback: POLECANY WPIS: Teleskop, którego nie ma kto obsługiwać | Za Wielkim Murem: Chiny i Azja Wschodnia

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Wyloguj / Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Wyloguj / Zmień )

Facebook photo

Komentujesz korzystając z konta Facebook. Wyloguj / Zmień )

Google+ photo

Komentujesz korzystając z konta Google+. Wyloguj / Zmień )

Connecting to %s