
Od kilku tygodni użytkownicy Salonu24, niegdyś znanego i szanowanego portalu blogowego, który dziś zszedł na psy, bo go przejął nierozgarnięty piłkarz, próbują zrekonstruować reguły działania nowego bota AI, który masowo usuwa komentarze. Nie chodzi o wulgarne bluzgi, spam czy prymitywny hejt — te znikały zawsze i nikt nie robił z tego problemu. Znikają natomiast komentarze ironiczne, polemiczne, analityczne, często merytoryczne, czasem wręcz sterylnie poprawne językowo. Jedne przechodzą, inne — niemal identyczne w treści — znikają bez śladu. Bez komunikatu, bez uzasadnienia, bez możliwości odwołania.
Ludzie zaczęli więc robić to, co zawsze robią w takich sytuacjach: obserwować, porównywać, testować granice. Pojawiły się teorie o czytaniu między wierszami, o wykrywaniu ironii, o karaniu określonych tematów, o cenzurze narracyjnej. Pojawił się też humor i paranoja, bo gdy reguły są niejawne, umysł ludzki produkuje hipotezy szybciej, niż algorytm klasyfikuje komentarze.
Wszystkie te obserwacje mają jedną cechę wspólną: wskazują, iż system nie reaguje na treść rozumianą semantycznie, lecz na coś bardziej prymitywnego i zarazem bardziej bezlitosnego — na statystyczne ryzyko.
Co naprawdę widzą użytkownicy?
Z perspektywy komentujących algorytm zachowuje się chaotycznie. W praktyce jednak to chaos pozorny. Znikają przede wszystkim wypowiedzi konfliktowe, nawet jeśli są grzeczne. Znikają komentarze, które wchodzą w spór, podważają, analizują, rozbierają cudze tezy na czynniki pierwsze. Przechodzą natomiast banały, truizmy, ogólniki, zgoda bez treści albo emocja bez argumentu. System premiuje gładkość, a karze tarcie.
To bardzo charakterystyczny objaw. Nie mamy tu do czynienia z moderacją rozumiejącą język, tylko z filtrem, który minimalizuje prawdopodobieństwo problemu. Ironia jest problemem. Polemika jest problemem. Inteligentny konflikt jest problemem. Pierdoły problemem nie są.
Diagnoza techniczna bez teorii spiskowych
Najprostsze wyjaśnienia bywają najbardziej sensowne, brzytwa Ockhama bywa najbardziej użyteczna. Wszystko wskazuje na to, iż nie wdrożono żadnego autorskiego systemu, żadnej inteligentnej redakcji AI, żadnej finezyjnej cenzury. Zastosowano gotowe, zewnętrzne narzędzie do moderacji treści — takie, jakie dziś kupuje się hurtowo: analizę sentymentu, klasyfikację toksyczności, progi ryzyka ustawione nisko i decyzje podejmowane automatycznie, bez udziału człowieka.
To nie jest algorytm uczący się kultury portalu Salon24. To algorytm chroniący właściciela przed potencjalnym kłopotem. Nie przed złem, nie przed kłamstwem, nie przed głupotą — tylko przed ryzykiem prawnym.
Jeden właściciel i jeden wykonawca
W tym miejscu warto przejść od objawów do struktury decyzyjnej. Najbardziej spójny obraz, jaki się z tego wyłania, jest banalny do bólu. Jeden właściciel, który zainwestował w medium, nie rozumiejąc do końca, czym medium polemiczne różni się od dowolnej strony z treścią. I jeden techniczny wykonawca, który dostał zadanie: ma być bezpiecznie, bez afer, bez problemów prawnych.
W takim układzie nie ma miejsca na subtelność. Techniczny wykonawca nie projektuje kultury debaty, tylko zabezpiecza system. Bierze więc najbardziej prymitywne, najbardziej asekuracyjne narzędzia dostępne na rynku. Ustawia progi tak, by algorytm wolał usunąć dziesięć sensownych komentarzy niż przepuścić jeden, który mógłby kiedyś zostać zacytowany w pozwie albo artykule krytycznym.
To nie jest zła wola. To jest logika outsourcingu odpowiedzialności.
Portal jako produkt uboczny automatyzacji
W efekcie powstaje sytuacja paradoksalna. Portal opinii zaczyna karać opinię. Platforma debaty zaczyna eliminować debatę. Nie dlatego, iż ktoś chce uciszyć użytkowników, lecz dlatego, iż nikt nie wziął odpowiedzialności za sens istnienia tego miejsca. Algorytm nie rozumie, czym jest spór intelektualny. Właściciel nie wydaje się tym zainteresowany. A wykonawca techniczny nie ma mandatu, by myśleć kategoriami kultury słowa.
Tak właśnie rodzą się systemy, które działają poprawnie technicznie i absurdalnie społecznie. Algorytmy mediów społecznościowych działają podobnie idiotycznie.
Najprawdopodobniej Salon24 nie ma żadnego superinteligentnego bota
Na rynku są dziś gotowe usługi, które cenzurują za właściciela serwisu. Przykład to Moderation API od OpenAI: wysyłamy tekst komentarza, a z powrotem dostajemy prostą informację, czy model widzi w nim przemoc, nienawiść, zachęcanie do przestępstw, treści seksualne itd. Taka usługa jest dla deweloperów bezpłatna, więc może być używana na dowolnie małym portalu bez generowania miesięcznych faktur za każdy wpis. Inne firmy oferują podobne API z darmowymi limitami miesięcznymi albo gotowe modele open source, które można uruchomić na własnym serwerze bez opłat za każde sprawdzenie.
Jeżeli właściciel Salonu24 chce mieć moderację za darmo, to najprostsze jest właśnie skorzystanie z takiej usługi: jeden endpoint HTTP, zero kosztów per komentarz, a całą inteligencję dostarcza zewnętrzny dostawca. W praktyce taki klasyfikator działa bardzo prosto: jeśli w tekście widzi zestaw słów i konstrukcji kojarzonych z przemocą, terroryzmem, nawoływaniem do destabilizacji państwa czy innymi czynami zabronionymi, daje sygnał: to jest niebezpieczne i portal automatycznie usuwa komentarz lub go blokuje. Tu można sobie podobne boty potestować:
- ]]>https://www.nyckel.com/pretrained-classifiers/offensive-language-identifier/]]>
- ]]>https://www.contentmoderationapi.net/demo_dashboard/index.php]]>
Grzegorz GPS Świderski
]]>https://t.me/KanalBlogeraGPS]]>
]]>https://Twitter.com/gps65]]>
]]>https://www.youtube.com/@GPSiPrzyjaciele]]>
PS. Zagadka dla uważnych czytelników. Napisałem notkę blogową, którą bot Salonu24 usunął. Jednak zastosowałem podstęp i dodałem ponownie, tak, iż człowiek widzi dokładnie to samo, a bot-cenzor tego nie zauważył i notka przetrwała. Oto ona:
Za co bot ją wywalił? Jaki to fortel?










