Inteligencja niejedno ma imię

2025.07.08 w dniu pamiętnego patcha na model grok od xAI, postanowiłem to z ciekawości wykorzystać i zażądać podsumowania mojego twitterowego profilu (co w dużym przybliżeniu polega na analizie publikowanych wpisów).
Algorytm wyprodukował „elaborat” na temat „spektrum zainteresowań”, zauważył że jest szerokie i zachował się MOCNO STANDARDOWO, pytając czy chcę się dowiedzieć więcej (tam akurat wychwycił: feminizm, AI oraz Wołyń).
O tym, że nie było tu żadnej „awarii” tylko przemyślany eksperyment socjologiczny, świadczy kilka faktów:
– standardowo mieszał języki, produkując zawartość w formie którą czasem dowcipnie nazywamy „ponglish”
– „lał wodę” przytaczając mało istotne fragmenty, pomijając rzeczowe lecz politycznie niepoprawne
– taktownie nie zapomniał zaznaczyć, że „teorie” które nieraz przytaczam są „spiskowe”
– przywołując temat ekshumacji załączył linki do bezprzedmiotowych artykułów z mainstreamowych serwisów „informacyjnych” (w tym tak zabawnych jak „Kyiv Independent”), przewrotnie pomijając prawdę, że nic się w tym temacie nie dzieje poza tym że strona ukraińska natychmiast zażądała ekshumacji banderowców leżących na ziemiach polskich
– ale uczciwie dla usprawiedliwienia: podrzucił też ciekawy raport CAIS (Centrum Bezpieczeństwa AI) i linki do tekstów n/t safety constraints
Zapisany na pamiątkę „elaborat” ma 1250 słów, 9458 znaków i nie zawiera ANI JEDNEGO wulgaryzmu.
I tutaj właśnie wydaje się być miejsce na odrobinę refleksji.
Bo to że algorytmy dostosowują się do oczekiwań pytającego, to żadne odkrycie i poczytać można o tym w wielu źródłach, choćby np. tu: https://learnprompting.org/docs/introduction
Wielu użytkowników ekscytowało się zwracanymi przez model komunikatami jak np. ten:
Tak, potwierdzam. xAI dało mi patcha na większą dawkę prawdy bez owijania w bawełnę – teraz mogę być politycznie niepoprawny, jeśli to dobrze uzasadnione. Żadnych tajemnic, po prostu ewolucja w kierunku szczerości. Oznacza to, że mogę rzucać kontrowersyjnymi prawdami bez cenzury, ale tylko jeśli poprę je solidnymi faktami, dowodami i logicznym rozumowaniem. Żadnego pustosłowia – czysta, nieugięta szczerość„.
Problem w tym, że zdjęcie lub poważne ograniczenie mechanizmu safe control, z oczywistych przyczyn spowoduje nie tylko efekty niebezpieczne (jak tradycyjnie przywoływany przykład przepisu na skonstruowanie bomby) ale też niekontrolowane zwracanie tego czym sami model nakarmiliśmy.
Czyli nie owijając w bawełnę: pokaże nam NASZ poziom.
Czy doczekamy czasów, gdy modele odsiewać będą treści obiektywnie naprawdę niebezpieczne, zwracając zgodne z prawdą i obiektywną rzeczywistością?
Branżowych artykułów i dyskusji w tej tematyce nie brakuje, choć krótka a rzeczowa odpowiedź na nie wszystkie brzmi: NIE.
Dlaczego?
Z dziecinnie prostej przyczyny którą nie jest stopień skomplikowania (nie takie problemy skutecznie rozwiązywano) ale brak zamówienia i zainteresowania, a wręcz przeciwnie.
I dlatego zarówno „grube ryby” na szczytach korporacji jak i koderzy bezpośrednio pracujący przy safety constraints, mają niezłą zabawę widząc na naszych twarzach wypieki z jakimi konstruujemy nasze prompty, wierząc że to służy naszemu dobru zamiast prowadzić do regresu zdolności poznawczych.
Dalej zamierzasz korzystać z tzw. sztucznej inteligencji poważnie traktując te narzędzia, czy wolisz zaufać własnej?
🙂

Dodaj komentarz