
Duże modele językowe i inne narzędzia AI są już masowo wykorzystywane w marketingu – branża uznała, że nie ma sensu kopać się z koniem i po prostu dostosowuje się do nowej rzeczywistości. Nieco inaczej wygląda to w dziennikarstwie, które z jednej strony podnosi larum i wzywa do regulacji, a z drugiej samo posiłkuje się chatbotami AI. I chodzi tutaj o naprawdę poważne tytuły prasowe, czego dowiodło niedawne badanie Uniwersytetu Maryland.
Autorzy rzeczonego badania wzięli pod lupę artykuły opublikowane latem 2025 roku na łamach wybranych amerykańskich gazet i zbadali je narzędziem Pangram, które analizuje treść pod kątem śladów generatywnej AI. Efekt? Aż około 9% artykułów zostało częściowo „napisanych” z wykorzystaniem LLM-ów.
Co ciekawe, w badaniu słabo wypadły też czołowe amerykańskie dzienniki opiniotwórcze, czyli The New York Times oraz The Washington Post. Problem w szczególności dotyczył treści zamieszczanych w sekcji opinii, które przecież z założenia powinny być dziełem ludzkiej myśli. Nieładnie…
Najchętniej z pomocy AI korzystają dziennikarze lokalnych tytułów, którzy najpewniej wspierają się chatbotami, aby wyrobić wierszówkę i utrzymać konkurencyjność, a tym samym pracę. Problem w tym, że takie działania są krótkowzroczne i tylko dowodzą, że dziennikarzy, przynajmniej na pewnym poziomie kwalifikacji i umiejętności, można już śmiało zastąpić tzw. sztuczną inteligencją.
Zjawisko wykorzystania AI w pracy dziennikarskiej z pewnością będzie narastać, ponieważ pokusa wspierania się tymi narzędziami jest zbyt silna. Trudno nawet oszacować skalę w mediach mówionych, czyli w radiu i telewizji.
Wpadka amerykańskich tytułów prasowych otworzyła dyskusję na temat konieczności wprowadzenia przepisów, które obligowałyby wydawców do oznaczania tekstów w całości lub w części wygenerowanych przez AI – bez tego trudno będzie utrzymać i tak już mocno nadszarpnięte zaufanie czytelników.