AI w dziennikarstwie
Od narzędzia do przełomu
Sztuczna inteligencja transkrybuje wywiady, sortuje komentarze, wygładza sformułowania – i tym samym po cichu, lecz zasadniczo zmienia codzienną pracę dziennikarzy. Jak głęboko sięga ta zmiana i co oznacza to dla zawodu opartego na rzetelności, krytycznej ocenie i odpowiedzialności? O kulisach swojej pracy opowiada Gregor Schmalzried, dziennikarz i gospodarz podcastu „KI-Podcast” w Bayerischer Rundfunk.
Wyobraźmy sobie, że wszystkie narzędzia AI używane w Pana codziennej pracy nagle znikają. Co byłoby dla Pana największym wyzwaniem? Jakie zadania redakcyjne byłyby najtrudniejsze bez wsparcia sztucznej inteligencji?
Problem nie polega na tym, że pewnych rzeczy nie dałoby się zrobić. Po prostu wiele zadań zajęłoby znacznie więcej czasu. Niedawno zepsuł mi się touchpad i musiałem pracować wyłącznie na klawiaturze. Technicznie jest to możliwe, ale bywa niezbyt przyjemne i uciążliwe. Tak właśnie wygląda dziś praca bez AI – jest jak najbardziej wykonalna, ale żmudna i czasochłonna.
Wiele osób mówi o „przełomie” w dziennikarstwie – o tym, że istnieje era „przed” i „po” sztucznej inteligencji. Czy ma Pan podobne odczucia?
Zdecydowanie tak, choć powiedziałbym raczej: „przed” i „w trakcie”. Rozwiązania dostępne kilka lat temu miały znacznie bardziej punktowy charakter – na przykład narzędzia do transkrypcji czy pierwsze próby tzw. dziennikarstwa robotycznego wykorzystywane w relacjach sportowych lub w tekstach giełdowych, czyli w treściach opartych na danych strukturalnych. Te technologie działały, ale były ograniczone do bardzo konkretnych zadań i zazwyczaj wdrażane odgórnie: specjaliści szukali dla nich zastosowań, a większość członków redakcji nie miała z nimi styczności. Dziś sytuacja wygląda zupełnie inaczej – te narzędzia nagle stały się dostępne dla wszystkich. AI przestała być niszowym tematem dla entuzjastów technologii czy wyspecjalizowanych zespołów projektowych, lecz stała się częścią naszej codziennej pracy. Nawet ci, którzy nigdy wcześniej nie interesowali się AI, muszą się z nią zmierzyć, bo widzą, jak bardzo wpływa na ich własne zadania.
Czy są redaktorzy, którzy całkowicie odrzucają stosowanie narzędzi AI lub świadomie ich unikają?
Rzadko spotykamy się z jawną odmową. Znacznie częściej ludzie po prostu nie zastanawiają się nad tym, jakie możliwości daje dzisiejsza technologia. Niedawno jeden z kolegów sfotografował tekst, a inna osoba miała go przepisać – nikt nie pomyślał, że można to zlecić czatowi GPT. Wiele osób po prostu wciąż nie zdaje sobie sprawy z takich opcji i jest to normalne – przyswojenie nowych systemów pracy wymaga czasu.
Jak bardzo, według Pana doświadczenia, wiek redaktorów wpływa na ich otwartość na narzędzia AI?
Szczerze mówiąc, znam wielu młodszych dziennikarzy, którzy są zaskakująco daleko w tyle, jeśli chodzi o technologię. Może dlatego, że mają w głowie bardzo klasyczny obraz dziennikarstwa: wychodzą w teren, rozmawiają z ludźmi, robią notatki. Sztuczna inteligencja nie wpisuje się w ten model pracy. Natomiast ci, którzy od zawsze starali się usprawniać swoje procesy, jeszcze przed erą AI tworząc własne bazy danych, narzędzia i procedury, dziś znacznie łatwiej się adaptują. Takie „majsterkowanie” to świetny punkt wyjścia.
Co konkretnie tracą dziennikarze, którzy nie korzystają w pracy z narzędzi sztucznej inteligencji?
To proste: zadania, które inni wykonują szybko, zajmują im znacznie więcej czasu. Co jednak ważniejsze – tracą wyczucie tego, jak zmienia się świat. W dziennikarstwie kluczowe jest rozumienie, w jaki sposób ludzie się komunikują i jakich narzędzi używają. Czat GPT to dziś medium masowe – ma 800 milionów użytkowników tygodniowo i jest piątą najczęściej odwiedzaną stroną internetową na świecie. Kto ignoruje ten fakt, traci kontakt z tym, co naprawdę porusza obecnie ludzi.
Czy zauważa Pan różnice w korzystaniu ze sztucznej inteligencji między redakcjami radiowymi a internetowymi?
Nie chodzi o samo medium, lecz o strukturę organizacji. Starsze redakcje, które od dziesięcioleci działają według tych samych procesów, mają większe trudności z wdrażaniem nowych narzędzi. Natomiast młode firmy produkcyjne od początku budują swoje modele pracy w oparciu o sztuczną inteligencję – i to daje im znaczną przewagę.
AI potrafi generować do złudzenia prawdziwe głosy, a technologia deepfake staje się coraz doskonalsza – trudno dziś rozpoznać, co jest prawdziwe. Co mogą zatem zrobić dziennikarze, aby mimo wszystko zachować wiarygodność?
To kluczowe pytanie nie tylko dla mediów, ale także dla marketingu, reklamy i całej branży tworzenia treści. Kiedyś autentyczność wynikała z samego produktu; dziś ktoś bez żadnej fachowej wiedzy może uchodzić za eksperta. Myślę, że kluczem jest perspektywa – wyraźnie ludzka perspektywa. Nie musi to być opinia, ale przekaz, który jasno pokazuje, kto mówi. W przypadku naszego podcastu o AI zależało nam na tym, aby ludzie rozpoznawali nasze głosy i wiedzieli, skąd pochodzimy. Wideo ma twarze, audio – głosy. Tekst jest najtrudniejszy, bo początkowo jest „bezgłośny”. Mimo to można w nim zaznaczyć swoją osobowość – poprzez regionalny akcent, charakterystyczne słowo czy indywidualny sposób podejścia do źródeł.
Jak pragnienie czytelników dotyczące autentycznych głosów i perspektyw wpływa na sposób pracy redakcji?
Trend wyraźnie zmierza w stronę personalizacji – i to na dwóch poziomach. Po pierwsze, po stronie odbiorców: zamiast wpisywania zapytań w Google i przeglądania dziesiątek artykułów, ludzie coraz częściej zwracają się bezpośrednio do czata GPT, który wie, w jakim mieście się znajdują, a może nawet, co ostatnio czytali, i udziela odpowiedzi dopasowanej do ich preferencji. Ja sam wciąż sięgam po klasyczne artykuły, ale traktuję to jak czytanie książki – z ciekawości, a nie z potrzeby szybkiego uzyskania informacji. Takie podejście będzie jednak coraz rzadsze. Po drugie, zmienia się to, kto tworzy treści – i w jaki sposób. Coraz większe znaczenie mają osoby z wyraźnym zdaniem, rozpoznawalnym głosem, jednoznaczną perspektywą. Znika natomiast „środek” – klasyczne teksty poradnikowe, które kiedyś wyszukiwaliśmy w Google („Co zrobić w przypadku oparzenia słonecznego?”, „Jak to działa?”), a więc treści pozbawione indywidualnego stylu, w których autor praktycznie nie ma znaczenia. Takich materiałów AI potrafi dziś dostarczać szybciej i lepiej.
W redakcjach coraz częściej korzysta się z AI. Czy klasyczne pisanie zdanie po zdaniu wkrótce stanie się zbędne?
Jeśli mamy już strukturę i pomysł, sztuczna inteligencja potrafi dziś wygenerować tekst na poziomie przyzwoitego artykułu informacyjnego. W przypadku felietonów czy tekstów specjalistycznych sprawa wygląda oczywiście inaczej. Stąd pytanie: czy w przyszłości będzie w porządku, jeśli ktoś nie opanuje umiejętności pisania zdanie po zdaniu, a zamiast tego będzie umiał odpowiednio promptować czat GPT i redagować teksty? Moim zdaniem – tak.
Jakich umiejętności dziennikarskich AI nie jest w stanie zastąpić?
Jedną z największych słabości AI jest brak zdolności krytycznej oceny – ma ona skłonność do uznawania wszystkiego za równie wartościowe, bez dostrzegania niuansów. Bywa to frustrujące – chciałbym, aby potrafiła lepiej odróżniać dobre pomysły od złych i nie zgadzała się automatycznie z każdą moją sugestią. Czat GPT nie zdecyduje, czy dany temat rzeczywiście zasługuje na uwagę. A właśnie to stanowi sedno pracy dziennikarskiej: umiejętność dokonywania rozróżnień, wyczucia wagi tematu i dostrzegania szczegółów, które naprawdę robią różnicę.
Gregor Schmalzried jest niezależnym dziennikarzem i gospodarzem podcastu „Der KI-Podcast” (ARD). Mieszka i pracuje w Monachium.
Publikacja tego artykułu jest częścią projektu PERSPECTIVES – nowego przedsięwzięcia promującego niezależne, konstruktywne dziennikarstwo uwzględniające różnorodne punkty widzenia. Projekt ten, współfinansowany przez Unię Europejską, jest realizowany przez JÁDUwe współpracy z sześcioma redakcjami z Europy Środkowo-Wschodniej pod przewodnictwem Goethe-Institut. >>> Więcej o projekcie PERSPECTIVES