Apple AI Tool transkribierte das Wort “rassistisch” als “Trump”


Videos online geteiltAnwesend extern Zeigen Sie den Leuten, die das Wort “rassistisch” in das Diktat -Tool sprechen.

Manchmal wird es korrekt transkribiert – aber bei anderen Gelegenheiten wird es in “Trump” verwandelt, bevor es schnell wieder auf das richtige Wort wiederhergestellt wird.

Die BBC konnte den Fehler nicht replizieren, was darauf hindeutet, dass Apples Fix bereits wirksam wird.

Prof Bell sagte, Apples Erklärung der phonetischen Überlappung sei keinen Sinn, da die beiden Wörter nicht ähnlich genug waren, um ein KI -System für künstliche Intelligenz zu verwirren.

Rede-to-Text-Erkennungsmodelle werden trainiert, indem Clips von echten Menschen eingeben, die neben einem genauen Transkript dessen sprechen, was sie sagen.

Sie lernen auch, Wörter im Kontext zu verstehen – zum Beispiel könnten sie das Wort “Tasse” von “Schnitt” unterscheiden, wenn es innerhalb der Phrase “eine Tasse Tee” lag.

Prof. Bell sagt, dass die Situation mit Apple mit ihren Daten wahrscheinlich kein echter Fehler ist, da sein englischsprachiges Modell auf Hunderttausenden von Stunden Sprache geschult würde, was ihr ein hohes Maß an Genauigkeit verleihen sollte.

Für “weniger gut ausgestattete Sprachen” sagte er, es könnte ein KI-Trainingsproblem sein.

Aber in diesem Fall sagte er: “Es zeigt wahrscheinlich auf jemanden, der Zugang zum Prozess hat.”

Ein ehemaliger Apple -Mitarbeiter, der an seinem KI -Assistenten Siri arbeitete erzählte der New York Times:Anwesend extern “Das riecht nach einem ernsthaften Streich.”





Source link