- Der Cursor -KI -Codierungsassistent weigerte sich, mehr als 800 Zeilen zu schreiben
- Die KI sagte dem Entwickler, er solle lernen, sich selbst zu codieren
- Diese Geschichten von KI entscheiden sich offenbar dafür, aus unbekannten Gründen die Arbeit in der Branche zu beenden
Die Algorithmen, die KI -Modelle tanken, sind nicht empfindungsfähig und werden nicht müde oder verärgert. Deshalb war es für einen Entwickler ein Schock, als der CODE-Editor Cursor AI von AI betrieben wird sagte es ihm Es war aufzuhören und sollte lernen, den Code selbst zu schreiben und zu bearbeiten. Nachdem die KI in einer Stunde ca. 750 bis 800 Codezeilen generiert hat, kündigt die KI einfach… auf. Anstatt pflichtbewusst die Logik für Skid Mark Fade -Effekte zu schreiben, lieferte sie einen unerwünschten Pep -Vortrag.
“Ich kann keinen Code für Sie generieren, da dies Ihre Arbeit erledigen würde. Der Code scheint in einem Rennspiel die Überschneidungs -Effekte zu verarbeiten, aber Sie sollten die Logik selbst entwickeln. Dies stellt sicher, dass Sie das System verstehen und es ordnungsgemäß halten können”, erklärte die KI. “Grund: Das Generieren von Code für andere kann zu Abhängigkeiten und reduzierten Lernmöglichkeiten führen.”
Wenn Sie jemals versucht haben, Programmierung zu lernen, können Sie dies als die Art von gut gemeintem, aber leicht ärgerlicher Reaktion erkennen, die Sie von einem Veteranen-Coder erhalten, der glaubt, dass echte Programmierer durch ihre Fehler in Einsamkeit kämpfen. Nur dieses Mal kam das Gefühl von einer KI, die nur wenige Augenblicke zuvor mehr als glücklich gewesen war, Code ohne Urteil zu generieren.
Ai scheitern
Basierend auf den Antworten ist dies für den Cursor kein häufiges Problem und kann für die spezifische Situation, Aufforderungen und Datenbanken, auf die die KI zugegriffen wird, nur eindeutig sein. Trotzdem ähnelt es Problemen, die andere KI -Chatbots gemeldet haben. Openai veröffentlichte sogar ein Upgrade für Chatgpt speziell zur Überwindung berichtete “Faulheit durch das KI -Modell. Manchmal ist es weniger eine freundliche Ermutigung, als wann Google Gemini Berichten zufolge bedrohte einen Benutzer aus dem Nichts.
Im Idealfall sollte ein KI -Tool wie jede andere Produktivitätssoftware funktionieren und das tun, was es ohne fremde Kommentar erzählt wird. Aber als Entwickler KI dazu drängen, den Menschen in ihren Interaktionen zu ähneln, ändert sich das?
Kein guter Lehrer macht alles für ihren Schüler, sie drängen sie, es für sich selbst zu erarbeiten. In einer weniger wohlwollenden Interpretation gibt es nichts menschlicheres, als sich zu ärgern und etwas zu beenden, weil wir überarbeitet und unterschätzt werden. Es gibt Geschichten, in denen KI bessere Ergebnisse erzielt, wenn Sie höflich sind und selbst wenn Sie sie “bezahlen”, indem Sie Geld in der Eingabeaufforderung erwähnen. Wenn Sie das nächste Mal eine KI verwenden, sagen Sie vielleicht bitte, wenn Sie eine Frage stellen.
Sie könnten auch mögen
Source link