Doges Pläne, Menschen durch KI zu ersetzen, sind bereits im Gange


Wenn Sie Tipps zur Neubildung der Bundesregierung haben, können Sie Matteo Wong bei @Matteowong.52 auf Signal wenden.


Eine neue Phase des Präsidenten und des Versuchs der staatlichen Effizienz des Ministeriums, den öffentlichen Dienst zu verkleinern und neu zu gestalten, ist im Gange. Die Idee ist einfach: Verwenden Sie generative KI, um Arbeiten zu automatisieren, die zuvor von Menschen durchgeführt wurden.

Die Trump -Administration testet einen neuen Chatbot mit 1.500 Bundesangestellten bei der General Services Administration und kann ihn bereits am Freitag an die gesamte Agentur weitergeben. Dieser Artikel basiert teilweise auf Gesprächen mit mehreren aktuellen und ehemaligen GSA -Mitarbeitern mit Kenntnis der Technologie, die alle um Anonymität beantragten, über vertrauliche Informationen zu sprechen. Es basiert auch auf internen GSA -Dokumenten, die ich überprüft habe, sowie auf der Codebasis der Software, die auf GitHub sichtbar ist.

Der Bot, den die GSA -Führung als Produktivitätsausschüttung für Bundesangestellte bezieht, ist Teil eines breiteren Spielbuchs von Doge und seinen Verbündeten. Thomas Shedd, ein ehemaliger Tesla-Ingenieur, der kürzlich als Direktor der Technology Transformation Services (TTS) installiert wurde, sagte die IT-Abteilung von GSA auf einem All-Hands-Treffen im vergangenen Monat, dass die Agentur auf eine „AI-first-Strategie“ drängt. In dem Treffen, deren Aufzeichnung ich erhielt, sagte Shedd, dass „die (die Gesamtgröße der Bundesregierung), wie Sie alle wissen, immer noch eine Menge Programme gibt, die existieren müssen, was eine große Chance für Technologie und Automatisierung ist, mit voller Kraft zu gelangen.“ Er schlug vor, dass „Coding -Agenten“ in der gesamten Regierung bereitgestellt werden könnten – ein Hinweis auf KI -Programme, die anstelle eines Menschen Code schreiben und möglicherweise bereitstellen können. Darüber hinaus könnte KI „Analysen zu Verträgen analysieren“, und Software könnte verwendet werden, um die „Finanzfunktionen der GSA“ zu „automatisieren“.

Ein kleines Technologie -Team in der GSA namens 10x begann das Programm während des Amtszeit von Präsident Joe Biden und stellte sich zunächst nicht als Produktivitätsinstrument, sondern als KI -Tests vor: ein Ort zum Experimentieren mit KI -Modellen für Bundesnutzungen, ähnlich wie bei der Erstellung von internen KI -Tools private Unternehmen. Aber die Verbündeten von Doge haben darauf gedrängt, die Entwicklung des Tools zu beschleunigen und als Arbeit Chatbot inmitten von Massenentscheidungen einzusetzen (Zehntausende von Bundesarbeitern sind zurückgetreten oder wurden beendet, seit Elon Musk seine begonnen hat Angriff über die Regierung). Der Rollout des Chatbot war der erste notiert von VerdrahtetWeitere Details über den breiteren Start und die frühere Entwicklung der Software waren vor dieser Geschichte nicht gemeldet worden.

Das Programm, das kurz als “GSAI” bezeichnet wurde und jetzt intern als “GSA -Chat” oder einfach “Chat” bekannt ist, wurde als Tool zum Entwurf von E -Mails beschrieben, Code schreiben, “und vieles mehr!” In einer E -Mail von Zach Whitman, dem Chief AI -Offizier der GSA an einige der frühen Benutzer der Software. Ein interner Leitfaden für Bundesangestellte stellt fest, dass der GSA -Chatbot „Ihnen hilft, effektiver und effizienter zu arbeiten“. Die Schnittstelle des Bots, die ich gesehen habe, sieht aus und handelt ähnlich der von ChatGPT oder einem ähnlichen Programm: Benutzer tippen in ein Eingabeaufforderungstich ein und das Programm antwortet. GSA beabsichtigt, die KI schließlich an andere Regierungsbehörden zu rollen, möglicherweise unter dem Namen „AI.Gov“. Das System ermöglicht es Benutzern, aus Modellen aus Meta und Anthropic auszuwählen, und obwohl die Mitarbeiter der Agentur derzeit keine Dokumente in den Chatbot hochladen können, dürfen sie es wahrscheinlich in Zukunft zulassen, so ein GSA -Mitarbeiter mit Kenntnis des Projekts und dem Code -Repository des Chatbot. Das Programm könnte möglicherweise verwendet werden, um groß angelegte Regierungsprojekte zu planen, Reduzierungen der Gewalt zu informieren oder zentrale Repositories von Bundesdaten abzufragen, sagte mir der GSA-Arbeiter.

Die Sprecher von Doge antworteten nicht auf meine Anfragen nach Kommentaren, und das Pressebüro des Weißen Hauses wies mich an die GSA an. Als Antwort auf eine detaillierte Liste von Fragen schrieb Powell, der amtierende Pressesprecher von GSA, in einer E -Mail -Erklärung, dass „GSA derzeit eine Überprüfung der verfügbaren IT -Ressourcen durchführt, um sicherzustellen, dass unsere Mitarbeiter ihre Mission zur Unterstützung der amerikanischen Steuerzahler durchführen können“ und dass die Agentur „umfassende Tests durchführen kann“, um die Wirksamkeit und die Zuverlässigkeit aller in unseren Arbeiten zur Verfügung stehenden Tools zu vermitteln.

Zu diesem Zeitpunkt ist es üblich, KI für die Arbeit zu verwenden, und der Chatbot von GSA hat möglicherweise keinen dramatischen Einfluss auf die Operationen der Regierung. Aber es ist nur ein kleines Beispiel für eine viel größere Anstrengung, da Dogy den öffentlichen Dienst weiterhin dezimiert. Im Bildungsministerium haben Doge -Berater Berichten zufolge Fütterte sensible Daten zu Ausgaben für Agenturen in KI -Programme, um die zu kürzenden Orte zu identifizieren. Doge Berichten zufolge beabsichtigt, KI zu nutzen, um festzustellen, ob Mitarbeiter in der ganzen Regierung ihre Arbeit behalten sollten. In einem anderen TTS -Treffen Ende letzter Woche – eine Aufnahme, die ich überprüft habe – erwartet Shedd, dass die Abteilung innerhalb von Wochen „mindestens 50 Prozent kleiner“ sein wird. (TTS beherbergt das Team, das GSA-Chat gebaut hat.) Und wohl umstrittenere Möglichkeiten für KI-Webstoffe am Horizont: Zum Beispiel plant das Außenministerium, die Technologie zu überprüfen Axios.

Das Sturm in einen generativen Rollout birgt gut etablierte Risiken. KI -Modelle weisen alle Arten von Vorurteilen auf, kämpfen mit sachlicher Genauigkeit, sind teuer und haben undurchsichtige Innenarbeit. eine Menge dürfen Und tut Gehen Sie falsch, auch wenn verantwortungsvollere Ansätze für die Technologie verfolgt werden. GSA schien sich dieser Realität bewusst zu sein, als sie im vergangenen Sommer anfänglich mit der Arbeit an seinem Chatbot begann. Damals begann 10x, das Small Technology -Team in der GSA, sogenannte „10x AI Sandbox“ zu entwickeln. Die Sandbox war weit entfernt von einem allgemeinen Chatbot und wurde als sicheres und kostengünstiges Umfeld für Bundesangestellte untersucht, um zu untersuchen, wie KI laut der Codebasis des Programms auf Github in der Lage ist, ihre Arbeiten zu unterstützen, indem sie auf Eingabeaufforderungen getestet und benutzerdefinierte Modelle entwerfen. “Das Prinzip hinter diesem Ding ist es, Ihnen nicht zu zeigen, dass KI für alles großartig ist, um Sie zu ermutigen, KI in jedes Produkt zu stecken, das Sie vielleicht umgehen”, sagte ein 10 -facher Ingenieur in einem frühen Demo -Video für die Sandbox, “aber eine einfache Möglichkeit, mit diesen Tools zu interagieren und schnell Prototypen zu interagieren.”

Aber Donald Trump -Ernennungen drängten sich, die Software schnell als Chat -Assistent zu veröffentlichen, anscheinend ohne viel Rücksicht darauf, welche Anwendungen der Technologie möglich sind. KI könnte ein nützlicher Assistent für Bundesangestellte auf bestimmte Weise sein, wie der Chatbot von GSA gerahmt wurde, angesichts der Neigung der Technologie zu jedoch rechtliche Präzedenzfälle erstellenEs konnte auch nicht sehr gut. Wie ein kürzlich verstorbener GSA -Mitarbeiter mir sagte: „Sie möchten Vertragsdaten in KI umgehen, um sie auf potenziellen Betrug zu analysieren, was ein gutes Ziel ist. Und wenn wir das auch tun könnten, würden wir es schon tun. “ Die Verwendung von KI schafft “ein sehr hohes Risiko, falsch positive Ergebnisse zu kennzeichnen”, sagte der Mitarbeiter, “und ich sehe nichts als Scheck dagegen angesehen.” Eine Hilfe für frühe Nutzer des GSA -Chat -Tools Notizen, einschließlich „Halluzination“ – ein Industriebegriff für KI, die falsche Informationen zuversichtlich als wahr präsentieren – „voreingenommene Antworten oder aufrechterhaltene Stereotypen“ und „Datenschutzfragen“ und die Mitarbeiter anweist, keine persönlichen identifizierbaren Informationen oder sensible, nicht klassifizierte Informationen einzugeben. Wie eine dieser Warnungen durchgesetzt wird, wurde nicht angegeben.

Natürlich experimentiert die Bundesbehörden seit vielen Monaten mit generativer KI. Vor den Wahlen im November hatte GSA beispielsweise einen Vertrag mit Google eingeleitet, um zu testen, wie KI -Modelle „Produktivität, Zusammenarbeit und Effizienz verbessern können“, so ein öffentliches Inventar. Die Abteilungen für Heimatschutz, Gesundheits- und Humandienste sowie Veteranenangelegenheiten sowie zahlreiche andere Bundesbehörden testen Tools von OpenAI, Google, Anthropic und anderswo vor der Amtseinführung. Eine Art Bundes -Chatbot war wahrscheinlich unvermeidlich.

Aber nicht unbedingt in dieser Form. Biden hat die Technologie vorsichtiger gewählt: in einem Wahrzeichen Executive Order und nachfolgende föderale Leitlinien betonte die frühere Regierung, dass die Verwendung von KI durch die Regierung von gründlichen Tests, strengen Leitplanken und öffentlichen Transparenz unterliegen sollte, da die offensichtlichen Risiken und Mängel der Technologie. Trump, an seinem ersten Amtstag, hat diese Bestellung später mit dem Weißen Haus aufgehoben sagen dass es “eine belastende und unnötige Kontrolle der Regierung” auferlegt hatte. Jetzt scheinen Doge und die Trump -Administration darauf bedacht zu sein, die gesamte Bundesregierung als Sandkasten zu nutzen, und die mehr als 340 Millionen Amerikaner, die sie als potenzielle Testpersonen dienen.



Source link