Strona główna 9 Aktualny numer 9 Między stalowym algorytmem a miękkim sercem

Między stalowym algorytmem a miękkim sercem

utworzone przez | lis 26, 2025 | Aktualny numer, Nauka i edukacja

W newsroomie jednej z ogólnopolskich redakcji zapanowała cisza. Monitory wciąż świeciły, telefony dzwoniły, ale brakowało charakterystycznego szmeru rozmów i stukotu klawiatur. Kilka biurek stało pustych – ich właścicieli zastąpił algorytm. Teksty zaczęły pojawiać się na ekranach błyskawicznie, bez pytań, bez wątpliwości, bez emocji. Komputer pisał szybko, tanio i bez przerwy. Dziennikarze patrzyli na to z mieszaniną fascynacji i niepokoju. ‒ Czy to jeszcze pomoc, czy już konkurencja? – szeptał ktoś przy ekspresie do kawy. Inny tłumaczył: ‒ Maszyna nie potrzebuje urlopu, ale też nie ma duszy. Nie zrozumie rozmówcy, nie poczuje kontekstu. W powietrzu wisiało pytanie: Czy w przyszłości sztuczna inteligencja odbierze nam notatnik albo mikrofon, zanim zdążymy zadać pierwsze pytanie?

Pomyślałam niedawno, że obraz newsroomu pełnego dziennikarzy, w którym zamiast stukotu klawiatury słychać jedynie mechaniczne przetwarzanie danych, stał się w jakimś stopniu symbolem przemiany, jaką przechodzi współczesne dziennikarstwo. Zawód, który przez dekady kojarzył się z pasją, odpowiedzialnością i misją społeczną, dziś coraz częściej podlega automatyzacji. Algorytmy wkraczają do redakcji szybciej niż deadline, a ich obecność zmienia niekiedy nie tylko sposób pracy, ale także tożsamość dziennikarza.

Pomysł na ten tekst pojawił się, gdy Polska Agencja Prasowa ogłosiła rezygnację z części dziennikarzy informacyjnych na rzecz sztucznej inteligencji. To nie była tylko decyzja technologiczna – dla mnie to był sygnał, że oto zmienia się jakiś fundament tego zawodu. Tymczasem dziennikarz to nie tylko zawód, ale też głos tych, którzy nie mają mikrofonu ani notatnika…

Czy algorytm potrafi zrozumieć ciszę? Czy potrafi zapytać o to, czego nie ma w danych? Czy potrafi oddać emocje rozmowy, drżenie głosu, pauzę, która mówi więcej niż słowa?

Postanowiłam zapytać o to tych, którzy uczą przyszłych dziennikarzy. Zapytałam o to, jak nie stracić głosu w świecie, gdzie algorytmy mówią coraz głośniej, wybitnych specjalistów pracujących na Uniwersytecie Gdańskim, którzy rozumieją, że jeśli oddamy notatnik bez zrozumienia, co się zmienia, oddamy też prawo do zadawania pytań.

PAP BEZ DZIENNIKARZY?

Decyzja Polskiej Agencji Prasowej o wdrożeniu sztucznej inteligencji do procesu tworzenia treści informacyjnych wywołała poruszenie w środowisku medialnym. Oficjalnie mówi się o „modernizacji przekazu” i „optymalizacji zasobów”. W praktyce oznacza to, że część obowiązków dziennikarzy informacyjnych przejęły algorytm1ab.

– Wszędzie trwają próby znalezienia idealnego pracownika, który pracuje 24 godziny na dobę, nie choruje, nie bierze urlopów, nie traci czasu na kawę czy papierosa. Nie ma słabszych dni i nie jest wymagający finansowo. Sztuczna inteligencja odpowiada na ten trend. Jest w stanie tworzyć treści szybko i skutecznie, układać wydanie programu czy pierwszą stronę portalu, analizować zainteresowanie odbiorców i na nie reagować. Tworzyć „klikalne” tytuły artykułów i grafiki – mówi Sławomir Siezieniewski, polski dziennikarz radiowy i telewizyjny oraz wykładowca Zakładu Dziennikarstwa i Mediów na Wydziale Nauk Społecznych UG.

Podczas naszej rozmowy Sławomir Siezieniewski przypomina mi także, że trend ten trwa właściwie od wielu lat. Już w 2015 roku algorytmy zaczęły pisać dla Associated Press pierwsze depesze sportowe i ekonomiczne. Wkrótce kolejne redakcje zaczęły wykorzystywać AI na różnych etapach pracy. Chińska agencja Xinhua zaprezentowała pierwszą wirtualną prezenterkę – Xin Xiaomeng. Potrafiła ona czytać, gestykulować i wstawać od stołu. Choć jej głos i ruchy były nieco nieporadne, budziła ogromną ciekawość widzów. Xinhua stworzyła też wirtualnego klona popularnego prezentera Zhang Zhao. To jednak nie wszystko. Podobne próby podejmowano w Rosji, gdzie android Aleks zadebiutował w kanale Rossija24. Widać było jednak gołym okiem, że to sztuczna inteligencja. Jedni się nią zachwycali, inni patrzyli na nią z obawą.

– Pewnie dlatego, że tu widać wyraźnie nierzeczywistość tworów – wyjaśnia Siezieniewski. – Tam, gdzie algorytmy zastępują człowieka w tworzeniu treści, nie jest to już tak oczywiste i dlatego bez problemu to “kupujemy”. Z przykrością stwierdzam, że sprzyja temu niekiedy niechlujstwo współczesnego dziennikarstwa – zdarzają się byle jakie treści, przepisywanie cudzych materiałów, grafomaństwo, brak wiedzy. Pamiętajmy przy tym, że najdoskonalszy nawet komputer nie nauczy się człowieczeństwa, emocji i wrażliwości. Przykre jest również to, że coraz mniej osób szuka ambitniejszych treści. Liczy się chwytliwy tytuł, kilka sensacyjnych zdań, pikantna fotografia, a my skrolujemy dalej – reasumuje. Dziennikarz podkreśla też, że najwyższą stawką zawsze jest efektywność przekazu. Ja także to wiem. AI nie popełnia literówek, nie spóźnia się z publikacją, nie potrzebuje redaktora prowadzącego. Działa szybko i precyzyjnie, ale… bez emocji. Jednak czy AI nie może zostać naszym asystentem porządkującym myśli i tym samym pozwalającym nam na większą kreatywność?

Właśnie od tej kwestii zaczęła się moja kolejna, najdłuższa z trzech przeprowadzonych w tym kontekście konwersacji – rozmowa z dr Beatą Czechowską-Derkacz, naukowczynią i nauczycielką akademicką w Instytucie Mediów, Dziennikarstwa i Komunikacji Społecznej UG, dziennikarką z ponad dziesięcioletnim stażem, specjalistką PR a także byłą rzeczniczką prasową UG. – Sztuczna inteligencja jest narzędziem, z którego korzystają naukowcy, dziennikarze, nauczyciele czy osoby pracujące w różnych branżach – mówi dr Czechowska-Derkacz. – Na razie jednak często nie przyznajemy się do jej używania, a jednocześnie trochę się jej obawiamy. To przypomina mi reakcje na wcześniejsze technologie wchodzące do świata mediów. Pamiętam czasy pisania na maszynie i moment, gdy pojawił się komputer. Wielu dziennikarzy uważało go za bezduszne urządzenie i nie wyobrażało sobie pracy w takim środowisku. A przecież dziś nikt nie wróciłby do maszyny do pisania – komputer ułatwia pracę. Podobnie jest z AI – tłumaczy naukowczyni.

AI W REDAKCJI – WSPÓŁPRACOWNIK CZY RYWAL?

W redakcjach na całym świecie coraz częściej mówi się o sztucznej inteligencji jako o współpracowniku. Narzędzia takie jak Wordsmith (Automated Insights) generują krótkie raporty finansowe i sportowe na podstawie danych liczbowych. Sophi.io, opracowane przez kanadyjski dziennik „The Globe and Mail”, wspiera redaktorów w podejmowaniu decyzji o publikacji, analizując, które teksty mają największy potencjał czytelniczy. ChatGPT pomaga w szybkim tworzeniu szkiców, redagowaniu tekstów i generowaniu pomysłów na artykuły. Z kolei aplikacja Otter.ai transkrybuje wywiady w czasie rzeczywistym, pozwalając dziennikarzom skupić się na rozmowie, a nie na notatkach. Na polskim rynku znane są przede wszystkim takie aplikacje, jak Clipto AI – służąca do transkrypcji plików wideo i audio – oraz Transkriptor, który potrafi kon wertować dźwięk na tekst w ponad stu językach. Dla dziennikarza, który dotąd spędzał długie godziny na odsłuchiwaniu i przepisywaniu wywiadów, to prawdziwe wybawienie. Co więcej, sztuczna inteligencja potrafi także zasugerować najlepszy moment na wykorzystanie spisanych notatek w tekście.

Gdzie w tym świecie znajduje się człowiek ‒ dziennikarz? Moim zdaniem tam, gdzie sam się postawi. Wszystko zależy od tego, czy jest wyłącznie operatorem tych narzędzi, czy jednocześnie twórcą prawdziwych historii. Wie, że nie wszystko da się wygooglować, a niektóre prawdy trzeba wyciągnąć z ciszy, spojrzenia i niedopo wiedzenia. Sztuczna inteligencja może być świetnym wsparciem – ale to człowiek nadaje sens słowom, to on decyduje, co jest ważne, a co tylko głośne. To od dziennikarza zależą teza i przekaz, a także refleksja, z którą zostawi czytelnika.

– Dlatego miejsce dziennikarza jest tam, gdzie bije serce opowieści – mówi dr Czechowska-Derkacz. – I tylko od nas zależy, czy będziemy mieli odwagę je usłyszeć. Dziennikarze w większości zdają sobie z tego sprawę. Z tego co wiem, nie prowadzono dotąd szerokich badań dotyczących stosowania AI w redakcjach. Sądzę również, że trudno byłoby dziś uzyskać szczere odpowiedzi – śmieje się rozmówczyni. – Wydaje mi się, że musimy jeszcze trochę okrzepnąć w korzystaniu z tego narzędzia, zanim powstaną wartościowe analizy. Tymczasem dyskusja o AI często koncentruje się na obawach. Boimy się, że AI wyeliminuje niektóre zawody, odpersonalizuje relacje, zautomatyzuje życie i zniszczy indywidualizm. Jeśli na to pozwolimy, tak będzie. Od nas zależy, jak wykorzystujemy dostępne technologie.

Naukowczyni tłumaczy również, że AI nie nauczy dziennikarza prowadzić dobrego wywiadu. Może przygotować pytania, ale wtedy powstaje coś, co przypomina „wywiadownię”, a nie ciekawą i angażującą rozmowę. Ta zaś to proces – pytania rodzą się w trakcie spotkania, zmienia się ich kontekst, czasem jest ich dwa razy więcej niż dziennikarz przewidywał, a na koniec z dwóch godzin materiału trzeba wybrać 40 minut. – Właśnie tak powstaje dobry wywiad – mówi dr Czechowska-Derkacz, a ja się z nią oczywiście zgadzam.

Doktor Czechowska-Derkacz dodaje też, że większość dziennikarzy, z którymi rozmawia, przyznaje, iż korzysta z narzędzi AI i traktuje je jako wsparcie w zbieraniu oraz analizowaniu danych. W wielu redakcjach – jak choćby w agencji Reuters – sztuczna inteligencja pomaga tworzyć raporty finansowe, weryfikować dane i dostarczać szybkie, uporządkowane odpowiedzi. To realne ułatwienie pracy. AI wspiera także pisanie tekstów, ale wymaga od dziennikarza umiejętności. Kluczowe jest formułowanie odpowiednich promptów.

– Dobry prompt to nie pięć pytań, ale czasem dwie–trzy strony szczegółowych poleceń – mówi dr Czechowska-Derkacz. – To wymaga odpowiednich umiejętności – podobnie jak metodologia badań, której uczymy się na studiach dziennikarskich. Jeśli chcemy pisać o jakimś temacie, musimy go znać, bo inaczej nie umiemy zadawać właściwych pytań. Jeżeli będziemy obrażać się na AI, obawiając się, że nas zastąpi, nic dobrego z tego nie wyniknie. Trzeba nauczyć się korzystać z niej jak z dobrego narzędzia – świadomie, krytycznie i z odpowiedzialnością.

Nie wszyscy jednak podchodzą do współpracy z nowymi narzędziami równie odpowiedzialnie i transparentnie.

KRYZYS JAKOŚCI I TEMPO PRACY

Sławomir Siezieniewski uważa, że od dwudziestu lat praca w wielu redakcjach zmieniła się na niekorzyść dla samych dziennikarzy. – Zaczęło się od tego, że władzę w mediach zaczęli przejmować dyrektorzy finansowi. Bywa, że reklamy i ich liczba stają się ważniejsze od treści. Skoro więc treści przestawały być ważne, mogli je tworzyć „tańsi” dziennikarze – mówi.

Czyli albo AI, albo niewykwalifikowani pracownicy, którzy nieumiejętnie i mało transparentnie korzystają z narzędzi sztucznej inteligencji. Tymczasem ta kompetencja tylko z pozoru wydaje się prosta.

Do tego doszła pandemia, która ograniczyła kontakty międzyludzkie. Redaktor Siezieniewski ubolewa nad tym, że dziś redaktorzy nawet najpoczytniejszych dzienników nie spotykają się z rozmówcami – spisują tworzone przez nich treści i opinie z platform społecznościowych. – Kto jedzie na drugi koniec Polski na wywiad, skoro może pogadać online albo po prostu wysłać pytania? – pyta retorycznie. – Z odległości nie jesteśmy w stanie oddać emocji i opisać obserwacji. Dlatego nie ma teraz wywiadów czy reportaży, które się zapamiętuje. Zauważyła pani, że nie ma autorów, na których się czeka?

Fakt! Do tego dochodzi presja czasu. Treści muszą trafiać na strony internetowe i do programów informacyjnych natychmiast. Stąd wspomniana wcześniej niechlujność i częste błędy. – „Gdy się człowiek śpieszy, to się diabeł cieszy” – mawiali moi dziadkowie – dodaje redaktor.

AI JAKO ROZWIĄZANIE I EKSPERYMENTY

Redakcje dostrzegają te słabości i próbują je rozwiązać. Sztuczna inteligencja może na przykład przejąć część rutynowych obowiązków, pozwalając dziennikarzom skupić się na bardziej twórczych działaniach. Nie trzeba tracić czasu na grafikę czy układanie treści. W radiu na przykład AI analizuje dane o słuchalności w czasie rzeczywistym i podpowiada wybór muzyki.

– Ja sam wykorzystuję elementy sztucznej inteligencji do tworzenia książki biograficznej o profesorze Andrzeju Czyżewskim z Politechniki Gdańskiej – opowiada Siezieniewski. – Korzystamy z wynalazku jego zespołu, tak zwanej sondy fonicznej. To urządzenie zapisuje treść rozmowy w czasie rzeczywistym, rozróżnia głosy, potrafi wyłowić je z największego gwaru. Wersje zaawansowane, nazwane LexAI, mogą pomóc sądom, lekarzom, prawnikom, a być może także dziennikarzom – nie tylko za pisując słowa, ale też natychmiast podpowiadając przepisy prawne czy wyjaśniając trudne branżowe określenia. Nasza książka będzie pierwszą tak napisaną publikacją. Muszę przyznać, że to przyspiesza pracę, ułatwia ją i systematyzuje.

Jak zauważa mój rozmówca, niemal wszyscy chcą korzystać ze wsparcia sztucznej inteligencji, choć do końca nie znamy jej potencjału. Ten zaś cały czas ewoluuje i z miesiąca na miesiąc się zwiększa. Każda redakcja ma swój sposób korzystania z nowych narzędzi – w zależności od zasobności portfela. Jedno jest jednak pewne: nikt nie zamierza z nich rezygnować. Nawet mimo takich wpadek jak słynny „wywiad” z nieżyjącą Wisławą Szymborską w Off Radio Kraków.

Przypominam sobie tę historię z mojego rodzinnego miasta. To było medialne trzęsienie ziemi – eksperyment, który miał pokazać możliwości sztucznej inteligencji, a zamiast tego obnażył jej ograniczenia i wywołał dyskusję o granicach etyki w mediach. Wirtualna dziennikarka rozmawiała z głosem wygenerowanym na podobieństwo głosu Wisławy Szymborskiej, co dla wielu było szokiem. Jedni widzieli w tym ciekawą próbę promocji poezji, inni – niepokojące nadużycie, urągające pamięci noblistki. Ostatecznie wywiad stał się głośnym przykładem tego, jak szybko technologia może zderzyć się z ludzką wrażliwością.

WSPÓŁAUTOR BEZ TWARZY

Grafika wygenerowana przez ChatGPT
Grafika wygenerowana przez ChatGPT

Wyobraźmy sobie teraz redakcję „Gazety Uniwersyteckiej” za kilka lat. Wieczór pachnie kawą, jak zawsze przed zamknięciem numeru. Na ekranie komputera pojawia się szkic tekstu – lead, trzy akapity, propozycja tytułu. Autorem jest … ChatGPT. Poprawiam styl, dodaję cytat, zmieniam rytm. Nie traktuję algorytmu jak rywala, raczej jak asystenta, który podsuwa pomysły, ale nie zna kontekstu. Wiem, że to praca z kimś, kto nigdy nie był na miejscu zdarzenia, kto może pomóc, ale nie może decydować, co jest ważne. O tym zawsze decydować będę ja!

Pamiętam, że AI może generować błędy, uproszczenia, a nawet dezinformować. Dlatego nie będę traktować jej jako wyroczni – fakty weryfikuję, źródła sprawdzam, a kontekst dodaję samodzielnie. Sztuczna inteligencja może być moim asystentem, ale zawsze takim, który wymaga nadzoru. Jeśli będę z niej korzystać, wciąż pozostanę niezmiennie wdzięczna Aleksandrze Pryczkowskiej za wnikliwą korektę i Tomaszowi Neumannowi za sokole oko, które nieraz dostrzegło to, czego ja chwilowo nie widziałam. Bo choć technologia wspiera, to właśnie ludzkie doświadczenie, czujność i wrażliwość nadają słowom ostateczny kształt i wiarygodność.

Dla wielu dziennikarzy współautorstwo z algorytmem to dziś rzeczywistość, kiedyś jednak wyglądała ona zupełnie inaczej.

– Kiedy pracowałam w redakcji, zwłaszcza w gazecie codziennej, obowiązków było ogromnie dużo – wspomina dr Beata Czechowska–Derkacz. – Brakowało mi wtedy takiego osobistego asystenta, który przejąłby część zadań, chociażby monitoring mediów. Dziś dziennikarze mogą mieć takiego asystenta w postaci sztucznej inteligencji. Trzeba jednak pamiętać, że AI działa podobnie jak człowiek- -asystent: jeśli nie poprowadzimy jej we właściwy sposób, nie przygotuje nic wartościowego. To narzędzie wymaga odpowiedniego kierowania i świadomego użycia, inaczej nie będzie realnym wsparciem.

EDUKACJA I ODPOWIEDZIALNOŚĆ

Podczas zbierania materiałów do tego tekstu pomyślałam, że warto szkolić młodzież w zakresie korzystania z AI. Dzisiaj sama poszłabym na takie studia podyplomowe, ewentualnie kurs. – Takie działania na uczelni trzeba prowadzić w ramach projektów, bo nigdy nie są one bezkosztowe – mówi dr Czechowska-Derkacz. – Eksperci, czyli na przykład prawnicy specjalizujący się w regulacjach dotyczących sztucznej inteligencji w Europie, nie będą nas szkolić za darmo. To zawsze wiąże się z finansami, choć warto o tym poważnie pomyśleć. Moja rozmówczyni dodaje przy tym, że nie wyobraża sobie, aby nie tłumaczyć studentom, jak świadomie korzystać z narzędzi sztucznej inteligencji. – Wprowadzamy te elementy do edukacji, bo są one dziś nieodłączną częścią pracy w komunikacji i mediach – opowiada. – Studenci muszą wiedzieć, jak formułować pytania, jak krytycznie podchodzić do odpowiedzi i jak wykorzystywać AI w sposób odpowiedzialny. To już nie jest przyszłość – to teraźniejszość naszego zawodu.

PUŁAPKA PRODUKTYWNOŚCI

Pisałam wcześniej, że korzystanie z AI usprawnia pracę, ale jednocześnie dzięki moim rozmówcom zdałam sobie sprawę z tego, że szybsza praca nie zawsze oznacza więcej czasu dla siebie. Bywa, że dziennikarz, który wcześniej pisał trzy artykuły dziennie, a na reportaż miał dwa tygodnie, dziś – odkąd pojawiła się AI – jest niekiedy zobowiązany do przygotowania siedmiu tekstów informacyjnych w ciągu dnia. Skoro narzędzie pozwala pisać szybciej, niektóre redakcje uznały, że można wymagać więcej.

W efekcie zamiast odciążyć dziennikarzy, dokłada się im pracy. Mało tego ‒ oni sami zaczynają wpadać w pułapkę: skoro mogą zrobić szybciej i więcej, to robią i szybciej, i więcej – czasem kosztem jakości, o czym wspominał wcześniej redaktor Sławomir Siezieniewski. To dokładnie ten sam syndrom, który obserwowaliśmy w czasie pandemii. Byliśmy online, nie traciliśmy czasu na dojazdy, a okazało się, że pracujemy bez przerwy, bo granica między domem a pracą się zatarła.

To uświadamia mi, jak ważny jest czynnik ludzki. Sztuczna inteligencja może wspierać, ale jeśli wykorzystujemy ją wyłącznie do zwiększania tempa i liczby obowiązków zamiast do realnego odciążenia, wpadamy w błędne koło, które „wyżyma” z nas wszelką kreatywność.

GRANICE SZTUCZNEJ KREATYWNOŚCI

Znowu w wyobraźni przenoszę się do redakcji „Gazety Uniwersyteckiej” za kilka, kilkanaście lat. Nie ma już szelestu papieru. Zamiast notesów ‒ same ekrany. Zamiast ciszy przed pytaniem – kliknięcie „Enter”. Dziennikarze pracują ramię w ramię z algorytmami, które podpowiadają tytuły, streszczają wywiady, analizują dane. Na ekranie pojawia się propozycja leadu. ChatGPT proponuje trzy wersje – każda poprawna, każda logiczna, ale żadna nie oddaje emocji rozmowy z matką dziecka chorego na SMA. Nie ma w nich drżenia głosu, pauzy, która mówi więcej niż słowa. AI potrafi pisać, ale nie potrafi chcieć czytelnikom czegoś uświadomić. Czy takiej redakcji bym chciała?

„Twórczość” sztucznej inteligencji to rekombinacja – łączenie znanych elementów w nowe konfiguracje. Ona na razie nie potrafi wyjść poza to, co już istnieje, a to ja chcę mieć ostateczny głos, wiem, co chcę powiedzieć naszej społeczności akademickiej i co przekazać, aby każdy tekst zmusił do zastanowienia. Czasem mi się udaje, innym razem nie – ale to zawsze mój pomysł i ja ponoszę konsekwencje!

Zastanawiając się nad tym wszystkim, mimowolnie w wyobraźni stworzyłam zupełnie inny i skrajnie przeciwny do poprzedniego obraz. Znowu widzę redakcję „Gazety Uniwersyteckiej” za kilka, kilkanaście lat. Tym razem nie jest ona sterylnym biurem pełnym ekranów, lecz żywym miejscem spotkań. Narzędzia sztucznej inteligencji są tu cichymi asystentami – podpowiadają statystyki, porządkują dane, streszczają długie raporty, czasem teksty. Niemniej to dziennikarze nadają ton.

Widzę siebie. Wróciłam z laboratorium biologii molekularnej. Opowiadam w redakcji o młodym doktorze, który przy wsparciu sztucznej inteligencji analizuje wyniki badań nad nowym lekiem. To nie liczby są najważniejsze, lecz błysk w oku naukowca, jego pasja i determinacja.

Siadam przy biurku. AI podsuwa mi trzy wersje leadu, jednak dobieram własne słowa – takie, które oddają emocje chwili. Robię przerwę na kawę. Rozmawiam z innymi o swoim tekście. W tle słychać śmiech i cichy stukot nowoczesnej klawiatury.

Redakcja „Gazety Uniwersyteckiej” to ludzie pytający, dociekliwi, obecni w terenie, w laboratoriach, na konferencjach, wśród studentów i profesorów. AI im pomaga – ale nigdy ich nie zastępuje.

FAKE NEWSY I KRYZYS WIARYGODNOŚCI

Pod tym obrazem może się jednak kryć pewne niebezpieczeństwo – że współpraca ze sztuczną inteligencją pójdzie w złym kierunku, a dla efektu, blasku, sensacji i szybkości równej bylejakości zaczniemy polegać na niej bardziej niż na własnym warsztacie. Bo przecież ludzie i tak nie zorientują się, że to AI. – Niestety, dzisiaj w zdecydowanej większości ludzie nie potrafią rozpoznawać fałszywych treści – mówi Sławomir Siezieniewski. – Uświadomiłem to sobie przy okazji zdjęcia wygenerowanego przez AI, pokazującego strażaków śpiących pod gołym niebem po akcji powodziowej. Krążyło ono w internecie i wiele osób, także poważnych, rozsyłało je z komentarzem: „To zdjęcie przejdzie do historii”. Dla mnie od początku było zbyt „piękne”, by mogło być prawdziwe. Wcześniej pojawiały się inne „podróbki”: papież Franciszek w białej kurtce Balenciagi czy Donald Trump brutalnie zatrzymywany przez policję. Najczęściej były one szybko demaskowane, ale rozwój AI sprawia, że odróżnienie „realu” od „cyber” będzie coraz trudniejsze. Sprzyja temu postawa ludzi, którzy wierzą w wiele rzeczy przeczytanych w internecie.

Redaktor Siezieniewski podkreśla również, że takie historie niestety podkopują wiarygodność mediów. Zawód dziennikarza spada w rankingu poważania, a obiektywizm coraz częściej ustępuje propagandzie. Na opinie o dziennikarzach wpływa działalność milionów osób w internecie, które dziennikarzami nie są, ale tworzą treści naśladujące dziennikarskie – często właśnie z pomocą AI.

Paradoksalnie, redaktor Siezieniewski wierzy, że nadejdzie moment, kiedy sami wyznaczymy sobie ramy przyjmowania treści. Bronić się będą treści oryginalne, zdobywane tradycyjnie i pisane sercem. Tego AI nie potrafi jeszcze podrobić. Jeszcze…

ZAGROŻENIA, ETYKA I ODPOWIEDZIALNOŚĆ W TRANSPARENTNOŚCI

Treści zdobywane tradycyjnie, z refleksją i krytycznym namysłem, mają szansę przetrwać w epoce sztucznej inteligencji. – Największe zagrożenie, które dostrzegam, dotyczy nie tylko dziennikarzy, ale wszystkich zawodów – mówi dr Beata Czechowska-Derkacz. – To brak krytycznego myślenia. Jeśli przestaniemy analizować treści i zadawać pytania, będziemy przyjmować informacje bezrefleksyjnie. AI nie nauczy nas krytycznego spojrzenia – tego musimy uczyć się sami i uczyć naszych studentów, prowokując ich do dyskusji i sporu prowadzonego językiem bez przemocy.

Tam, gdzie kończy się opowieść pełna emocji, a zaczyna chłodna kalkulacja algorytmu, pojawia się ostrzeżenie prof. Józefa Majewskiego, kierownika Zakładu Dziennikarstwa i Mediów na UG. Zwraca on uwagę, że jeśli zatracimy zdolność odróżniania prawdy od fałszu, konsekwencje dla dziennikarstwa i społeczeństwa mogą być dramatyczne.

Profesor Majewski ostrzega: – Grozi nam powstanie społeczeństwa, w którym zatrą się granice między prawdą a fałszem. Halucynacje AI, powielane w mediosferze, tworzą obieg zamknięty. Zagrożeniem jest multiplikacja dezinformacji i manipulacji. Systemy automatyczne generują realistycznie wyglądające, ale fałszywe materiały – teksty, obrazy, filmy – w skali nieznanej w dziejach ludzkości. Konsekwencją może być lawinowa erozja standardów dziennikarstwa, fundamentu demokracji. Automatyzacja treści osłabia krytyczne myślenie i potrzebę weryfikacji informacji.

Dlatego tak ważne jest zaznaczanie w artykułach naukowych czy książkach, że korzystaliśmy ze wsparcia AI. To kwestia bezpieczeństwa i transparentności. Tekst wygenerowany przez algorytm może być później powielany w innych kontekstach. W newsleterach czy postach w mediach społecznościowych AI sprawdza się znakomicie, ale w artykułach informacyjnych trzeba jasno zaznaczać, że wspieraliśmy się tym narzędziem.

Kolejnym problemem jest prawdziwość danych. Jak wspominałam wcześniej, AI potrafi mieszać fakty, tworzyć fałszywe źródła czy przypisywać teksty autorom, którzy nigdy ich nie napisali. To wymaga kontroli i weryfikacji. Podobnie jak Wikipedia w swoich początkach była niewiarygodna, tak dziś AI potrzebuje mechanizmów ochronnych.

Zagrożeniem jest także płytkość oraz stereotypowość odpowiedzi, które bywają zachowawcze i pozbawione świeżości. Dlatego warto traktować je jako materiał wyjściowy, który dopiero można twórczo rozwinąć.

– Niebezpieczeństwo widzę również w ujednolicaniu – dodaje dr Czechowska-Derkacz. – Jeśli na przykład firmy uznają, że lepszy jest rzecznik prasowy wygenerowany przez AI – schematyczny i pozbawiony indywidualności, taki będzie kreował wizerunek instytucji. W public relations, dziennikarstwie i zawodach około medialnych istotne jest budowanie relacji z odbiorcą, odpowiedzialność i transparentność. Media są narzędziem poznawania świata, a naszym zadaniem jest nauczyć odbiorców korzystania z nich w sposób krytyczny i świadomy. Jeśli nie nauczymy się odpowiednio korzystać z AI, zagrożona będzie właśnie ta relacyjność – fundament komunikacji.

Przed takimi zagrożeniami można się bronić – nie tylko za pomocą krytycznego myślenia i odpowiedzialności dziennikarzy, ale także dzięki jasno określonym zasadom. Mogą one powstawać w redakcjach, lokalnych środowiskach czy organizacjach branżowych.

PARYSKA KARTA AI I DZIENNIKARSTWA A SZTUCZNA INTELIGENCJA W DZIENNIKARSTWIE

Warto w tym miejscu wspomnieć o jednym z najważniejszych dokumentów dotyczących sztucznej inteligencji w dziennikarstwie, który już dziś wyznacza kierunki refleksji i praktyki. W listopadzie 2023 roku podczas Paryskiego Forum Pokoju zaprezentowano Paryską Kartę AI i Dziennikarstwa. Dokument powstał z inicjatywy Reporterów bez Granic (RSF), przy współpracy 16 partnerów i 32 ekspertów z całego świata. Pracami kierowała Maria Ressa – laureatka Pokojowej Nagrody Nobla z 2021 roku1.

Celem Karty jest wyznaczenie etycznych i praktycznych zasad korzystania ze sztucznej inteligencji w mediach, tak aby chronić prawo do informacji i wspierać niezależne dziennikarstwo. Najważniejsze założenia to:

  • transparentność – odbiorcy powinni wiedzieć, które treści powstały przy wsparciu AI,
  • odpowiedzialność – dziennikarze i redakcje muszą weryfikować dane, ponieważ AI może generować błędne lub fałszywe informacje,
  • etyka – korzystanie z AI nie może naruszać praw człowieka ani podważać zaufania do mediów,
  • krytyczne myślenie – AI może wspierać research czy monitoring, ale nie zastąpi analitycznego spojrzenia dziennikarza,
  • unikanie schematyzmu – artykuły powinny zachowywać indywidualny charakter i różnorodność perspektyw, a nie być jedynie powielaniem.

Jak podkreślają moi rozmówcy, bez przestrzegania odpowiednich zasad istnieje ryzyko zatarcia granicy między informacją a manipulacją, powielania fake newsów czy utraty indywidualności w przekazie medialnym.

POLSKA PERSPEKTYWA

W polskich redakcjach temat sztucznej inteligencji wciąż dopiero się rozwija. Brakuje jasnych regulacji i wytycznych, które wskazywałyby, jak oznaczać treści powstałe dzięki wsparciu AI i jak chronić odbiorców przed dezinformacją.

Czy Paryska Karta AI i Dziennikarstwa jest respektowana w Polsce? Na razie raczej w niewielkim stopniu – głównie jako inspiracja i punkt odniesienia w dyskusjach akademickich czy branżowych. W praktyce redakcyjnej wciąż dominuje podejście „uczymy się na bieżąco”.

– Mam wątpliwości, na jak długo wystarczą takie regulacje – mówi dr Beata Czechowska-Derkacz. – Środowisko technologiczne zmienia się błyskawicznie. Jeszcze niedawno mówiliśmy o ChatGPT-4, dziś mamy wersję piątą, dużo lepiej radzącą sobie w wielu obszarach, na przykład w tworzeniu grafik czy ilustracji. Moja rozmówczyni podkreśla jednocześnie, że coraz częściej powstają także rysunki satyryczne czy komiksy generowane przez sztuczną inteligencję – coś, co dotąd kojarzyło się z mistrzami gatunku. Takie treści muszą być oznaczane, bo nie są w pełni twórczością człowieka, lecz efektem adaptacji i przeróbek. Niestety, nie wszystkie firmy to robią, choć właściwie trudno dziś znaleźć redakcję, która w ogóle nie korzystałaby z AI. – Potrzebujemy ogólnych ram odpowiedzialności społecznej, które będą obowiązywać niezależnie od wersji technologii – dodaje dr Czechowska-Derkacz. – Szczegółowe wskazania powinny być tworzone lokalnie, a także w ramach poszczególnych środowisk zawodowych. Tylko wtedy będą miały sens i realne zastosowanie.

MECHANIZMY ODPOWIEDZIALNOŚCI

Profesor Józef Majewski zwraca uwagę na to, że tak naprawdę nie istnieje jednolite środowisko dziennikarskie, a tym bardziej nie ma jednolitych tradycyjnie obowiązujących mechanizmów odpowiedzialności.

Demokracje – jak powietrza – potrzebują odpowiednich zabezpieczeń – mówi. – To sprawa nie tylko dziennikarstwa, ale też rządów demokratycznych, jeśli uświadomimy sobie, czym grozi automatyzacja mediosfery. Bez ustaw i twardego prawa regulującego funkcjonowanie AI oraz mediów demokracja może upaść. Wydaje się – zastanawia się prof. Majewski – że dojrzeliśmy do tego, by dziennikarstwo stało się profesją na wzór innych zawodów zaufania publicznego – z jasno określonymi mechanizmami wejścia do tego „cechu” i możliwością usuwania z niego osób, które nie przestrzegają zasad.

– W świecie z AI obligatoryjna w dziennikarstwie powinna być klasyczna koncepcja prawdy – zgodność słów i rzeczy. Być może powinna być ona nawet zadekretowana prawnie. Proponowałbym także, aby w publicznych wypowiedziach dziennikarskich, naukowych czy innych zawsze widoczne były treści pochodzące od AI – oznaczone czymś w rodzaju znaku wodnego. Konieczna byłaby również ustawowa otwartość redakcji na audyt wewnętrzny i zewnętrzny. Tylko w ten sposób można zachować przejrzystość i zaufanie społeczne – podkreśla prof. Majewski.

PERSPEKTYWA MŁODYCH – CZEGO UCZĄ SIĘ DZIŚ, BY NIE ZNIKNĄĆ JUTRO?

– Z punktu widzenia nauczyciela akademickiego ogromnym atutem jest możliwość korzystania z nowoczesnych narzędzi i infrastruktury – mówi dr Beata Czechowska-Derkacz. – Na Uniwersytecie Gdańskim mamy dziś w pełni profesjonalne studia: telewizyjne, radiowe, fotograficzne oraz multimedialne. To luksus, którego kiedyś nie było – studenci musieli przynosić własne laptopy i sprzęt, aby w ogóle móc pracować multimedialnie. Teraz mogą od razu korzystać z profesjonalnych zasobów, ucząc się zawodu w warunkach zbliżonych do realiów pracy dziennikarskiej.

Doktor Czechowska-Derkacz podkreśla, że studenci uczą się samodzielności także w kołach naukowych – radiowym, telewizyjnym, fotograficznym czy PR- -owskim – w których tworzą własne materiały już w trakcie studiów. Angażują się też w różnego rodzaju projekty. – Prowadzę seminarium projektowe, w ramach którego studenci realizują swoje przedsięwzięcia i na tej podstawie uzyskują dyplom licencjata. To reportaże radiowe, telewizyjne, cykle wywiadów, podcasty, projekty PR, świetnie przygotowane i samodzielne. Pracują indywidualnie lub w zespołach, a ja ich wspieram we wszystkich działaniach. Zaczyna się od znalezienia tematu, później trzeba przygotować plan działań, zaplanować premierę, spotkania, przeprowadzić ewaluację i oczywiście przygotować część opisową do projektu. To wymaga zarówno ode mnie, jak i od studentów dużo więcej pracy, ale daje też ogromną satysfakcję. Kiedy widzę reakcję publiczności na premierze studenckiego reportażu, zawsze się wzruszam – po latach nadal się na to nie uodporniłam – opowiada z uśmiechem moja rozmówczyni.

ZOOMERZY, POKOLENIE ALFA I NOWE WARTOŚCI

Moi rodzice należą do pokolenia baby boomers – są zanurzeni w powojennym rozwoju, pełni optymizmu i mocno związani z rewolucją obyczajową lat 60. i 70. Ja reprezentuję pokolenie X, pierwsze, które intensywnie korzystało z komputerów. Następnie przyszło pokolenie Y – milenialsi, ceniący elastyczność i technologie mobilne. Kolejni są przedstawiciele pokolenia Z, określanego też jako Gen Z albo zoomerzy – prawdziwi cyfrowi tubylcy, dorastający w świecie mediów społecznościowych i smartfonów. Mój syn urodził się niemal na styku tego właśnie pokolenia i następnego, nazwanego Alfa – urodzonego w XXI wieku, od początku zanurzonego w nowoczesnej technologii.

To oczywiście bardzo uproszczona charakterystyka, ale nawet w takim zarysie widać różnice. Pokolenie Z – a więc m.in. dzisiejsi studenci – jest inne: głęboko cyfrowe, kierujące się wartościami odmiennymi od pokolenia boomersów. – Znaczna część pokolenia Z nieakceptuje modelu pracy, który odbiera życie osobiste. Są w stanie zaakceptować minimalizm na rzecz rozwoju osobistego, istotne są dla nich kwestie ochrony środowiska, ale także dobrostanu społecznego – tłumaczy dr Czechowska Derkacz. – Naszą rolą jest być przewodnikiem dla młodych ludzi; mądrze im podpowiadać, pokazywać możliwości, z których już sami będą wybierać, ale przede wszystkim uczyć ich krytycznego spojrzenia. Korzystamy ze sztucznej inteligencji, zwłaszcza młodzi ludzie. I będą z niej korzystać, niezależnie od naszych opinii i obaw. Nie wolno nam ignorować tego faktu. Musimy pokazywać im możliwość i zagrożenia, jakie stwarza to narzędzie.

KRYZYS ZAUFANIA I ROLA PRZEWODNIKA

W tym miejscu pojawia się w mojej głowie pytanie związane z zaufaniem – zarówno do mediów, jak i do nauczycieli akademickich. Bo jeśli studenci powinni mieć przewodników, którzy wskażą im drogę i nauczą ich krytycznego spojrzenia, to czy odpowiedzialność za nich spoczywa wyłącznie na wykładowcach, którzy znają temat? – Chcę być przewodnikiem i wsparciem dla młodych dziennikarzy – to się nie zmieni – mówi dr Czechowska-Derkacz. – Mam jednak świadomość, że przyszłość będzie wyglądała inaczej i wiele zależy od samych dziennikarzy oraz redakcji. Największym problemem dziennikarstwa jest dziś dezinformacja, wypaczona komunikacja zapośredniczona, emocje zastępujące fakty i wynikający z tego kryzys zaufania do mediów. Zamiast odbiorców mediów mamy wyznawców. Argumenty jednej strony nie trafiają do drugiej. A przecież chodzi o to, byśmy ze sobą rozmawiali. Możemy się spierać, ale okazując drugiej stronie szacunek.

Naukowczyni dodaje też, że w jej miejscu pracy, w Instytucie Mediów, Dziennikarstwa i Komunikacji Społecznej, pracują osoby o różnych wyznaniach i poglądach – judaistycznych, islamskich, katolickich, konserwatywnych i lewicowych. Funkcjonują razem, wspierają się i uczą studentów, starając się stwarzać im bezpieczne środowisko.

Jej zdaniem trzy najważniejsze cechy, które powinien posiadać prawdziwy, współczesny dziennikarz to:

  • umiejętność budowania relacji z ludźmi i różnymi środowiskami,
  • krytyczny i uważny ogląd rzeczywistości,
  • zdolność odsiewania ziarna od plew, czyli krytyczne myślenie połączone z odpowiedzialnością i zawodową etyką.

POWRÓT DO KORZENI

– Dla mnie najlepszy sposób na bycie prawdziwie współczesnym dziennikarzem to częściowy powrót do korzeni – mówi Sławomir Siezieniewski. – Oryginalność, własny styl, bez względu na mody. Zdobywanie newsów na ulicy, a nie w telefonie z X. Oglądanie meczu z trybuny, a nie dzięki pięćdziesięciu pięciu kamerom w TV. Patrzenie ludziom w oczy, gdy cierpią, a nie tworzenie kolejnych oper mydlanych z udziałem celebrytek i influencerów. Może ktoś, czytając to, uśmiechnie się i powie, że to powrót do prehistorii – ale człowieczeństwo to uczucia, a nie tylko technologie. I choćby nie wiem jak ten świat się zmienił, to i tak zawsze będziemy tęsknić za tą cząstką duchowości, która jest w każdym z nas.

Po tych wszystkich rozmowach, przykładach i analizach jedno staje się dla mnie jasne: sztuczna inteligencja nie zabierze nam mikrofonu, jeśli będziemy wiedzieć, kiedy oddać jej głos. Dziennikarstwo to nie tylko informacja – to obecność, odpowiedzialność i odwaga zadawania pytań, których algorytm nie zrozumie.

AI może wspierać, ułatwiać, przyspieszać. Może porządkować chaos danych, podsuwać pomysły, tworzyć szkice. Jednak nie zastąpi człowieka, który potrafi dostrzec emocje, niuanse i zrozumieć ciszę między słowami jako najpiękniejszą odpowiedź na swoje pytanie.

To właśnie w tym tkwi przyszłość dziennikarstwa – w umiejętności łączenia technologii z człowieczeństwem. W świadomości, że AI jest narzędziem, które może wspierać, ale nigdy nie powinno zastępować. W odpowiedzialności za słowo, które kształtuje opinię publiczną i buduje zaufanie.

Jako studentka m.in. prof. Teresy Sasińskiej Klas w Instytucie Dziennikarstwa, Mediów i Komunikacji Społecznej na Uniwersytecie Jagiellońskim uczyłam się patrzeć na media przez pryzmat socjologii, polityki i etyki, a sztuczna inteligencja była wtedy raczej tematem teoretycznych rozważań niż praktycznych ćwiczeń. Dyskutowaliśmy o tym, jak nowe technologie zmieniają komunikację społeczną, ale AI pojawiała się głównie w książkach – jako wizja przyszłości, a nie narzędzie pracy dziennikarza.

Wyobraźnia podsuwa mi obrazy i zdarzenia, które mogłyby rozegrać się na tamtych zajęciach, w 2003 roku… Widzę salę wykładową w Instytucie Dziennikarstwa, Mediów i Komunikacji Społecznej UJ. Na tablicy zapisany temat zajęć: „Teoria komunikowania masowego” będący jednocześnie jednym z kursów prowadzonych przez prof. Teresę Sasińską-Klas. Profesora rozpoczyna wykład. Niemal słyszę, jak mówi, że media nie są tylko kanałem przekazu, lecz także narzędziem kształtowania opinii publicznej, a ich rola zmienia się wraz z technologią. – Internet dopiero zaczyna wpływać na komunikację społeczną, ale pamiętajcie – każda nowa technologia niesie ze sobą konsekwencje polityczne i etyczne – mówi do nas w mojej wyobraźni.

Na ławkach leżą książki: Zrozumieć media McLuhana, Cyfrowe życie Negropontego i Trzecia fala Tofflera, a studenci dyskutują o pierwszych blogach i forach internetowych. Ktoś wspomina o Społeczeństwie sieci Castellsa, które wówczas krążyło w angielskich wydaniach. Profesora uśmiecha się i w mojej wyobraźni mówi słowa aktualne do dziś: – To, co dziś wydaje się ciekawostką, jutro może być fundamentem komunikacji. Dlatego uczymy się patrzeć krytycznie i ze zrozumieniem – nie tylko na treści, ale też na narzędzia, które je tworzą.

Dzisiaj wierzę, że przyszłość mediów zależy od tego, co potrafi technologia, ale przede wszystkim od tego, czego nie zapomni człowiek. Od odwagi zadawania pytań, od krytycznego spojrzenia od umiejętności budowania relacji. Dziennikarstwo w czasach algorytmów to nie tylko walka o tempo i klikalność, lecz przede wszystkim walka o zachowanie autentyczności. O to, by w świecie pełnym danych i automatycznych treści wciąż było miejsce na refleksję.

Dla mnie równie istotna jak celebracja ważnych momentów w życiu jest właśnie obecność emocji w tekście. Mimo tego pragnienia nie boję się korzystać z AI. Współpracuję ze sztuczną inteligencją i poprawiam zaproponowane sugestie. Uważam, że jeśli nie zaczniemy uczyć się wciąż nowych rzeczy, nie pójdziemy do przodu. Takie rozumowanie, wsparte odrobiną siły woli i umiejętnością tak modnego ostatnio detoksu cyfrowego w życiu prywatnym, pozwala znaleźć złoty środek. Środek, który pomoże mi napisać najlepszy z możliwych tekstów – nawet jeśli, i w jego przypadku, zawsze można coś udoskonalić we współpracy z cichym cyfrowym asystentem.


Tekst powstał przy wsparciu narzędzi sztucznej inteligencji, jednak każdy fakt został przeze mnie dokładnie sprawdzony i zweryfikowany. Styl i język były gruntownie dopracowywane na podstawie sugestii redakcyjnych, tak aby całość spełniała wysokie standardy jakości. Praca nad tym materiałem była eksperymentem, który przyniósł mi wiele radości i pokazał, jak twórcza może być współpraca człowieka z technologią.


1ab Czy sztuczna inteligencja zastąpi dziennikarzy PAP w likwidacji? | Portal Biznes Alert ; Sztuczna inteligencja wspomoże PAP w tworzeniu materiałów multimedialnych – Press.pl – najnowsze informacje z branży medialnej, marketingowej, reklamowej i public relations

1 Reporterzy bez Granic przedstawiają Paryską Kartę AI i Dziennikarstwa. „Krok w ochronie prawa do informacji”; https://www.press.pl/tresc/79059,reporterzy-bez-granic-przedstawiaja-paryska-karte–ai-i-dziennikarstwa_—-krok-w-ochronie-prawa-do-informacji— (dostęp: 18.11.2025).

Załączniki