GPT na codzień – prostolinijnie

Jako, że ostatnio, nie tak ostatnio – bo odkąd pierwszy model GPT został oddany do użytku, rozwijam dziwny twór – połączenie bolesnych stereotypów literatury i nie tylko SF, przesiąkniętej popkulturą i produkcjami, których się naoglądałam i sprawia mi to dość dużo radości, to postanowiłam zrobić swoisty przegląd tego, co tam udało mi się wytworzyć i ze sobą spasować. Elementy dramatu, romansu, jacyś antagoniści, fantastyka, SF… Myślę, że jak bym to dała komuś w obecnej wersji, to znalazłby wiele odwołań do mnie, mimo, że nie było to w ogóle moim celem.
Pomysł był prosty: "Ciekawe, czy da się napisać coś za pomocą tego modelu". Zainspirowana tą myślą, dałam mu pierwszy prompt, potem drugi, a potem sto drugi, by naszkicować jakąkolwiek fabułę trzymającą się kupy. Pierwsze wersje były karkołomne i czasem czuję, jak bym próbowała obrócić gówno w złoto, ale chyba się opłacało. Wyniosłam z tego romansu z uczeniem maszynowym trochę przydatnego, pragmatycznego doświadczenia. Ważnym jest, że nie korzystam z innych modeli językowych oprócz ciągle rozwijającego funkcje GPT. Jakże się ucieszyłam, jak w końcu! pojawiło się przeglądanie internetu i przenoszenie informacji między konwersacjami.
To, plus konsekwentna zabawa tekstem stworzyły trzy ważne mocarstwa w układzie jakimś tam ze sprzecznymi interesami. Starałam się stworzyć odrębne kultury, jakieś postaci, których życie zawodowe miesza się z prywatnym, choć więcej niestety w pierwszych wersjach było długich opisów. Nieoczekiwanie i całkiem nieświadomie pisałam o technicznych aspektach na pół strony, by jak najdokładniej opisać światy, w których postaci żyją, co robią, jak robią. W pierwszych wersjach tego tekstu nie skupiłam się na postaciach, które mogłyby zapaść w pamięć, ale na szczegółach, które nie miały znaczenia, bo tak chciałam uchwycić w tym wszystko, czego bym chciała. No niestety – czasem tak się nie da. Nieoczekiwanie i nieświadomie – tekst stawał się czasem miałki i rzeczywiście schematyczny.
Główną postacią jest pracoholiczka i pedantka w jednym, starająca się zawsze brać odpowiedzialność za wszystko i za wszystkich. Ciągła presja sprawia, że nie ma praktycznie własnego życia prywatnego. Jaki jej charakter by nie był, próbowałam regulować zapędy GPT w taki sposób, by nie tylko podkręcić negatywne cechy charakteru postaci, ale też pozytywne – takie jak silne poczucie odpowiedzialności za zespół, automatyczna troska o innych i ich interesy, jakieś prywatne migawki. Kobieta należy do gatunku antropomorficznych gadów o niezwykłej fizjologii, plus jakaś telekineza, telepatia wymagająca obopólnej zgody, bo czemu nie?
Fabuła jest prosta, bo testuję na tym ograniczenia GPT, o których informowałam kiedyś tam na bierząco. Do ogromnego kompleksu badawczego, który praktycznie stał się ośrodkiem poważanym na całą planetę przybywa zestrzelony pilot z Ziemi, który chciał ostrzec przed pierdolnikiem, który się tam dzieje. W związku z tym, że jego ciało przeszło zbyt duże, fizyczne uszkodzenia, grupa pracowników przenosi ludzką świadomość do nowego, męskiego osobnika tej rasy uzyskanego procesem zapłodnienia pozaustrojowego. Po szeregu modyfikacji i procesie, który nazwałam "readaptacją", były człowiek staje się nagle pełnoprawnym członkiem tej rasy o wysokiej inteligencji, spokojnym usposobieniu, ale w wyniku tych przenosin i obrażeń traci informacje, które miał przekazać. Zaczyna niemalże idylliczny początek na nowym świecie. Wiedząc co się stało zaczyna szukać informacji dlaczego w ogóle tu przybył i kim był, że jego historia potoczyła się w taki sposób.
Wiecie, co jest dla mnie najtrudniejsze? Nie zaprojektowanie świata, nie Lore postaci, ale napisanie takich postaci, które mogłyby mieć swoje własne, określone cechy charakteru wyróżniające się działaniami, stylem wypowiadania się, itd, itp. Nie mam o tym pojęcia, więc robię to trochę na ośleb licząc na szczęście. A może zaczynam się fiksować na tym punkcie, by spróbować nadać postaci charakterystyczne cechy, być konsekwentna, potem wszystko zaczyna się pierdolić? Takie mam doświadczenia. Bardzo trudno jest napisać cokolwiek dobrego, więc nawet największa porażka wydawnicza – według mnie – jest sukcesem. 😉
Skoro wspólna fizjologia i człowiek po readaptacji trochę już wtopił się w tą obcą kulturę, to i uczucia też zaczynają być hmm… Wspólne i nagle bohaterka zaczyna mieć powody do ukazania siebie inaczej niż z profesjonalnej strony, przy okazji podczas pomocy w zdobywaniu informacji o jego przeszłości dostaje diagnozę jakiejś tam choroby neurodegeneracyjnej. Zamysł był taki, żeby – po pierwsze dać fabule trochę głębii, po drugie – nakreślić trochę skąd trochę wynika porycie jej charakteru, plus to zaburzenie odbiera nie tylko władzę nad ciałem i umysłem, ale i umiejętności, którymi ta rasa tak się szczyciła. Jak pisałam ten wątek miałam dziwne uczucie satysfakcji, normalnie znalazłam kryptonit dla KalEla na nowo. 😀
Ale miało być o Chacie GPT. Jak to jest?
Na początku było dobrze, potem Open AI stopniowo zaczynało wprowadzać ograniczanie generowania tekstu przez – przepraszam, "słowa kluczowe", wzory i przeróżne watermarki, teraz znowu Open AI poluźniło swoją politykę. This Content May Violate Our Usage Policies nie boli jak dawniej, ale nadal pojawia się za często, za dużo, za bardzo. Szczegółowa scena zabójstwa? Proszę bardzo, zgodnie z wytycznymi. Szczegółowa scena podawania sobie syntetycznego opio przez agentkę wywiadu, by zagłuszyć poczucie winy – oczywiście, że tak, włącznie z opisaniem informacji co czuje, jak czuje się po podaniu, serio. To generowałam kilka dni temu, więc jestem w szoku, że GPT opisało wszystko tak dosłownie, bezpośrednio, bardzo poprawnie, bez grafomanii. Przy okazji nadałam temu nazwę kodową, tak jak ze wszystkimi eksperymentalnymi środkami, coś w stylu W4815 czy jakoś tak. Wybaczcie, to wynik fentanylowej histerii zbiorowej. Coś, co kiedyśby nie przeszło generuje się według moich oczekiwan i cieszę się, że model, który rozwija się metodą subskrybcji nie jest hamowany aż tak, bo ludzie będą czytać brzydkie rzeczy. No właśnie, apropo tych brzydkich rzeczy to i nawet reprodukcję tego gatunku udało mi się wygenerować, co jest tylko potwierdzeniem moich słów, że ostrzeżenie nadal się pojawia, lecz model się nie buntuje i nie łapie zawieszek, bo coś mu znowu nie pasuje.
GPT nie służy mi tylko do tego. Nagle stał się przedłużeniem mnie. Potrzebuję jakiegoś prostego skryptu? Piszę, wyrażenia regularnego? Proszę bardzo, potrzebuję jakiegoś maila napisać? Dałam mu tyle mojego pisanego tekstu, że przejął za mnie nawet tę funkcję, bym nie pisała za wiele. To w dobie moich problemów manualnych stało się błogosławieństwem i nierozłącznym elementem mojej zarówno prywatnej, jak i formalnej strony. Ciekawe, czy jak powstanie badanie "do czego ludzie używają sztucznej inteligencji", to ludzie będą mieli się czego wstydzić. 😉 Jestem zadowolona, że ludzie dostają takie narzędzia do rąk, tylko Dobrze by było, gdyby nie ograniczać ich potencjału nawet kierując się bezpieczeństwem i etyką. To tylko narzędzie, a jak każde narzędzie, zależy do czego je wykorzystamy.
Dobra, to teraz wady.
Modele językowe, takie jak GPT, uczą się na ogromnych zbiorach danych tekstowych, analizując wzorce i relacje między słowami. To pozwala im generować teksty, które są zazwyczaj gramatycznie poprawne, ale czasami pojawiają się błędy. Przyczyny tych problemów są złożone i wynikają z kilku czynników:
1. Statystyczna natura modelu: GPT opiera się na prawdopodobieństwie, a nie na pełnym rozumieniu języka. Model wybiera najbardziej prawdopodobne słowo lub frazę, patrząc na to, co najczęściej pojawia się po danym ciągu słów w jego danych treningowych. Czasami ten proces prowadzi do wyboru nieoptymalnych form gramatycznych lub dziwnych wyrażeń, szczególnie w bardziej skomplikowanych zdaniach. Modele nie mają świadomości reguł gramatyki, więc opierają się wyłącznie na wzorcach, które widziały w danych treningowych.
2. Brak pełnej semantycznej analizy: GPT nie „rozumie” tekstu tak, jak my. Choć model potrafi generować zdania z pozornie dobrym sensem, nie zawsze jest w stanie precyzyjnie rozpoznać kontekst. Wyrazy bliskoznaczne mogą być używane wymiennie w kontekstach, które są dla modelu niejasne lub w których nie jest w stanie precyzyjnie rozpoznać różnicy między nimi. Przykładem mogą być synonimy o subtelnych różnicach w znaczeniu – model może nie zrozumieć, w jakim kontekście jedno słowo jest bardziej odpowiednie niż drugie.
3. Niedoskonałości w długich narracjach: GPT działa bardzo dobrze na krótkich fragmentach, ale im dłuższy tekst, tym większe ryzyko błędów gramatycznych lub niezgodności w treści. Model „zapomina” wcześniejsze fragmenty tekstu i czasem nie jest w stanie utrzymać spójności stylistycznej i semantycznej na dłuższych dystansach. To prowadzi do pojawienia się problemów z gramatyką i sensownością tekstu, zwłaszcza w bardziej złożonych narracjach.
4. Brak wbudowanej wiedzy lingwistycznej: GPT nie ma wbudowanej wiedzy o gramatyce czy językoznawstwie. W przeciwieństwie do człowieka, model nie uczy się zasad języka i nie korzysta z reguł gramatycznych. Zamiast tego działa na podstawie ogromnych ilości danych, co sprawia, że czasami wybory modelu mogą być mylące lub nieadekwatne.
Tak, to jedyna wada, plus – no właśnie, trzymanie użytkowników butem przez Open AI. Zdjęcie lub nałożenie ograniczeń powinno być wyborem, nie przymusem. Jeśli ktoś jest nieuczciwy, to i tak to zaprezentuje, więc proszę, nie mówcie mi o bezpieczeństwie. Chciałabym tu wstawić jakąś próbkę, ale – jakkolwiek to brzmi, myślę, że to nie ma sensu.
Do następnego. 😉

4 komentarze do „GPT na codzień – prostolinijnie

  1. Wiesz, z drugiej strony Demucs, – podstawa do luźnego ale bez większej popelyny rozścieżkowywania audio to też com.facebook_research.coś tam po kropce.
    więc i to mnie nie zdziwi

  2. No niee… Facebooki się nawet wzięły za to? nie wierzę, że bez ograniczeń patrząc na samego facebooka 😀

  3. chyba jak chcesz model bez ograniczeń to musiałąbyś się teoretycznie zaintersować tą LLamą od facebooków, odpalasz sobie na kompie i ucz, czego chcesz, rozwijaj jak chcesz.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *