ICHn Anfang März machte eine Job -Anzeige unter Sportjournalisten die Runde. Es war für einen „Ai-unterstützten Sportreporter“ bei den USA Today’s Publisher, Gannett. Es wurde als eine Rolle in der „Vorderseite einer neuen Ära im Journalismus“ in Rechnung gestellt, kam aber mit einer Einschränkung: „Dies ist keine Beat-Reporting-Position und erfordert keine Reise- oder persönliche Interviews.“ Der dunkle Humor wurde vom Fußballkommentator Gary Taphouse zusammengefasst: “Es hat Spaß gemacht, während es dauerte.”
Während der unerbittliche Marsch der künstlichen Intelligenz weitergeht, ringen die Nachrichtenredaktionen mit den Bedrohungen und Chancen, die die Technologie schafft. In den letzten Wochen wurde ein KI -Projekt von einem Medien -Outlet beschuldigt, das Bild des Ku Klux Klan geweckt zu haben. AI spielt auch eine Rolle bei einigen britischen Journalisten, die mehr als 100 Bylines pro Tag aufnehmen. Inmitten der Angst vor der Technologie taucht jedoch ein breiter Konsens darüber auf, was die Technologie derzeit genau in der Lage ist.
Medienunternehmen sind sich jedoch bereits eines Elefanten im Raum bewusst. Ihre Berechnungen könnten hochgefahren werden, wenn Benutzer sich einfach an AI -Assistenten wenden, um ihre Inhaltsreparatur zu erhalten. “Ich denke, gute Informationen können in einem Zeitalter von KI steigen”, sagte ein britischer Medienmanager. “Aber wir müssen die Begriffe in den nächsten Jahren auf die richtige Weise festlegen, oder wir sind alle geschraubt.”
Die Geschwindigkeit, mit der die Technologie eingetroffen ist, hat einige frühe Fallstudien zu journalistischem Missgeschick gebracht. Anfang März startete die LA Times ein KI -Tool, das alternative Perspektiven auf Meinungsstücken enthält. Es Alarm verursachte Indem einige lokale Historiker den Ku Klux Klan als eine „weiße protestantische Kultur“ betrachteten, reagierte sie eher auf gesellschaftliche Veränderungen als auf eine explizit hassorientierte Bewegung, wodurch seine ideologische Bedrohung minimiert wurde. ” Die Fallstrick, sagte ein Medienmanager, der sich AI ansah, war offensichtlich: „Es wurde die Aufgabe gegeben, Urteile zu fällen, von denen er möglicherweise nicht zu erwarten ist, dass sie fällen.“
Die Tatsache, dass selbst ein Tech -Riese wie Apple musste eine Funktion aussetzen Dies führte zu ungenauen Zusammenfassungen von BBC News -Schlagzeilen zeigt, wie schwierig es sein kann, die Genauigkeit der generativen KI zu gewährleisten.
In Wirklichkeit arbeiten Teams von Journalisten und Tech -Tool -Designern seit Jahren daran, die besten KI -Nutzungen zu finden. In Bezug auf öffentliche Inhalte nutzen die Verlage damit, es zu verwenden, um kleine Textbrocken auf der Grundlage des Originaljournalismus vorzuschlagen. In der Praxis bedeutet dies Schlagzeilenvorschläge und Story -Zusammenfassungen, die von menschlichen Redakteuren leicht überprüft werden. The Independent wurde in dieser Woche als jüngste bekannt, dass er kondensierte KI -Versionen seiner eigenen Geschichten veröffentlichen würde. Viele Verlage testen oder haben bereits ähnliche Tools bereitgestellt.
Einige große Organisationen haben auch mit ihren eigenen KI -Chatbots experimentiert, sodass die Leser Fragen mit Inhalten aus ihren eigenen Archiven stellen können. Das Problem ist, dass die Redakteure möglicherweise nicht wissen, dass die Antworten ausgespuckt werden. An die Chatbot -Funktion der Washington Post beigefügt ist die Notiz: „Dies ist ein Experiment… Weil KI Fehler machen kann. Bitte überprüfen Sie die Antwort, indem Sie diese Artikel konsultieren.“
Die Menge an AI-unterstützten Text, die von menschlichen Herausgebern sicher überwacht werden können, ist ein Live-Problem. Reach, Herausgeber des Daily Mirror und eine Reihe anderer lokaler Websites, hat sein Guten -Tool verwendet, um seinen eigenen Journalismus für verschiedene Zielgruppen neu zu verpacken. Es hat für einige Journalisten zu einigen sehr wässrigen Zählungen für einige Journalisten beigetragen. An einem Tag im Januar verzeichnete ein regionaler Reporter 150 Bylines oder gemeinsame Bylines in den Titeln der Gruppe. Während er Guten selbst nicht benutzte, war die Technologie gewohnt, seine Arbeit für andere Websites wiederzuverwenden.
Einige erreichen Journalisten privat besorgt. Ein Reach -Sprecher sagte, Guten sei nur ein Werkzeug und müsse „nachdenklich von Journalisten verwendet werden“. “Wir ermutigen uns durch die Fortschritte, die wir bei der Reduzierung von Fehlern und der Unterstützung unserer täglichen Arbeit erzielt haben”, sagten sie. “Dies hat es uns ermöglicht, Journalisten freizugeben, um mehr Zeit für den Journalismus zu verbringen, der sonst nicht gemeldet werden würde.”
Das USA Today Network machte den gleichen Punkt für seine AI-unterstützte Sportreporterpost. “Durch die Nutzung der KI können wir die Berichterstattung erweitern und unseren Journalisten ermöglichen, sich auf eine umfassendere Berichterstattung zu konzentrieren”, sagte ein Sprecher.
Andere bezweifeln, ob die gespeicherte Zeit in den ursprünglichen Journalismus einfließen wird. Der ehemalige unabhängige Redakteur Chris Blackhurst sagte kürzlich, er sei „sehr zynisch“ in Bezug auf die Idee und befürchtete, es sei eher wahrscheinlich “Die Menschen zur Arbeit woanders befreien”.
Während öffentlich sichtbares Ai-A-A-A-A-Journalismus die meiste Debatte geführt hat, liefert die Technologie tatsächlich Gewinne und befragt riesige Datensätze. Die FT, die New York Times und der Guardian sind zu den Gruppen, die die Technik erforschen. Es hat bereits dazu beigetragen 1.000 Seiten Krankenhausdokumente in Norwegen. Transkription und Übersetzung sind andere alltägliche Verwendungen.
Andere verwenden es für „soziales Zuhören“. Die Nachrichtenbewegung, die Inhalte an ein jüngeres Publikum anstrebt, hat ein Tool aufgebaut, das das, worüber sein Publikum in den sozialen Medien spricht, überwacht und es an Journalisten zurückgibt. “Es hilft uns zu verstehen, welche Gespräche und Themen die Menschen derzeit führen”, sagte Dion Bailey, Chief Product and Technology Officer. Trotz der Angst über KI -Fehler versuchen einige Unternehmen wie Der Spiegel tatsächlich, KI zu Faktencheck -Inhalten zu verwenden.
Was kommt als nächstes? Laut akademischer Forschung handelt es sich um „Transformationen für das Publikumsformat“. Mit anderen Worten, eine Geschichte zu nehmen und sie in die Art von Inhalt zu verwandeln, die ein Benutzer möchte – sei es kondensiert, Audio oder sogar Video. Etwa ein Drittel der vom Reuters Institute for the Study of Journalism befragten Medienführer sagte, sie wollten mit dem Umwandeln von Textgeschichten in Video experimentieren. Tools können bereits lange Filmmaterial in kurze, gemeinsam genutzbare Inhalte verwandeln.
Doch wenn all diese Newsroom -Innovation übernommen wird, ist die Angst, dass alles nur darum geht, wenn persönliche KI -Chatbots den Platz von Medienunternehmen bei der Herstellung von Inhalten einnehmen. “Was mich nachts wach hält, ist, dass AI einfach zwischen uns und dem Benutzer einfügt”, sagte eine Medienfigur. Der Start von Google in diesem Monat eines neuen „KI -Modus“, der Informationen aus mehreren Quellen enthält und sie als Chatbot vorstellt, hat die Branche erschreckt. Einige glauben, dass die staatliche Intervention die einzige Lösung ist.
Einige größere Mediengruppen haben Lizenzverträge mit den Eigentümern der Haupt -KI -Modellbesitzer unterzeichnet, sodass die Modelle mit Zuschreibung in ihrem ursprünglichen Material geschult werden können. Der Wächter hat solche Ein Vertrag mit OpenAIEigentümer von Chatgpt. In der Zwischenzeit leitet die New York Times eine Klage gegen Openai für die Nutzung seiner Arbeit.
Bailey teilt die Bedenken, behält aber die Hoffnung, dass sich die Medienwelt anpassen kann. “Wenn die Macht an zwei oder drei große Tech -Unternehmen geht, haben wir einige echte, bedeutende Probleme”, sagte er. “Wir müssen uns anpassen, wie Menschen in der Lage sind, zu uns zu gelangen. Das ist nur eine Tatsache.”
Source link