GoogleDie Führungskräfte gaben am Mittwoch Details darüber, wie der Tech -Riese seine Diversity -Initiativen auf Sonnenuntergang setzt und das Versprechen gegen das Gebäude verteidigte künstliche Intelligenz für Waffen und Überwachung in einem All-Staff-Meeting.
Melonie Parker, ehemalige Leiterin der Vielfalt von Google, sagte, das Unternehmen habe seine Schulungsprogramme für Vielfalt und Inklusion und „Aktualisierung“ breiterer Schulungsprogramme mit „DEI -Inhalten“ beseitigt. Es war das erste Mal, dass Unternehmensleiter seitdem das gesamte Personal angesprochen haben Google kündigte an, dass es keine Einstellungsziele für die Vielfalt mehr folgen würde, und erlegte das Versprechen, keine militarisierte KI aufzubauen. Der Chief Legal Officer, Kent Walker, sagte, seit Google habe seine KI -Prinzipien im Jahr 2018 erstmals geändert, was ausdrücklich erklärte, Google würde KI für schädliche Zwecke nicht aufbauen. Er sagte, es sei „gut für die Gesellschaft“, dass das Unternehmen Teil der Entwicklung geopolitischer Diskussionen als Reaktion auf eine Frage, warum das Unternehmen Verbote gegen den Aufbau von KI für Waffen und Überwachung beseitigt.
Parker sagte, dass das Unternehmen als Bundesunternehmer alle seine Programme und Initiativen als Antwort auf überprüft habe Donald TrumpDie Exekutivbefehle, die Bundesbehörden und Auftragnehmer dazu leiten, die Arbeit zu zerlegen. Parkers Rolle wurde auch vom Chief Diversity Officer zum Vizepräsidenten von Googler Engagement geändert.
“Was nicht ändert, ist, dass wir immer die beste Person für den Job eingestellt haben”, sagte sie laut einer Aufzeichnung des Treffens, den der Guardian überprüft hat.
Sundar Pichai, Geschäftsführer von Google, sagte, das Unternehmen habe sich immer sehr darum gekümmert, eine Belegschaft einzustellen, die die Vielfalt seiner globalen Nutzer darstellt, das Unternehmen jedoch die Regeln und Vorschriften dessen, wo es tätig ist, einhalten musste.
“Unsere Werte dauern, aber wir müssen die rechtlichen Anweisungen einhalten, je nachdem, wie sie sich entwickeln”, sagte Pichai.
Pichai, der aus Paris sprach, als er an einem internationalen KI -Gipfel teilnahm, und andere Führungskräfte antworteten auf Fragen, die Mitarbeiter in einem internen Forum veröffentlichten. Einige dieser Fragen waren Teil einer koordinierten Anstrengung unter Arbeiteraktivistengruppen wie No Tech für die Apartheid, um die Führungskräfte der Firma zu zwingen, den drastischen Abzug des Tech -Riesen von den vorherigen Grundwerten zu beantworten.
Die Mitarbeiter hatten 93 Fragen zur Entscheidung des Unternehmens eingereicht, sein Versprechen zu entfernen, keine KI -Waffen zu bauen, und mehr als 100 über Googles Ankündigung, dass es sich um die Versprechen der DEI -Versprechen zurücksetzt, laut Screenshots, die der Guardian überprüfte. Das Unternehmen hat sich kürzlich in die Verwendung von AI verlagert, um ähnliche Fragen zusammenzufassen, die Mitarbeiter regelmäßig geplante Mitarbeiterversammlungen hatten, die als TGIF bekannt sind.
Letzte Woche hat Google zu Meta und Amazon teilgenommen, um sich von einer Betonung einer Kultur der Inklusivität zugunsten von Richtlinien zu bewegen, die im Bild der Trump -Verwaltung geformt wurden. Neben der Entfernung von Erwähnungen seines Engagements für Vielfalt, Eigenkapital und Inklusion (DEI) von Einreichungen mit der US -amerikanischen Securities and Exchange Commission sagte das Unternehmen, dass es keine Einstellungsziele für Menschen mit unterrepräsentierten Hintergründen mehr festlegen würde. Das Unternehmen entfernte auch die Sprache von seinen öffentlich veröffentlichten KI -Prinzipien, aus denen angibt, dass es keine KI für schädliche Zwecke wie Waffen und Überwachung aufbauen würde.
„Wir werden zunehmend gebeten, in einigen wichtigen Gesprächen einen Platz am Tisch zu haben, und ich denke, es ist gut für die Gesellschaft, dass Google eine Rolle in den Gesprächen in Bereichen spielt, in denen wir uns spezialisiert haben – Cybersicherheit oder einige der Arbeiten um Biologie. und noch viel mehr “, sagte Walker, der Chief Legal Officer. „Während es sein mag, dass einige der strengen Verbote, die in (der ersten Version) der KI -Prinzipien waren Dies ist, dass die Vorteile die Risiken erheblich überwiegen. “
Google hat seit langem versucht, den Eindruck zu erwecken, dass es sich um die Grenze zwischen den angegebenen Unternehmens- und kulturellen Werten und den Verfolgungsjagd und Verteidigungsverträgen handelte. Nach Proteste von Mitarbeitern im Jahr 2018 zog sich das Unternehmen aus dem Projekt Maven des US -Verteidigungsministeriums zurück, mit dem KI zum Analyse von Drohnenmaterialien seine KI -Prinzipien und -werte veröffentlichte, die versprachen, keine KI für Waffen oder Überwachung zu bauen.
In den Jahren seitdem hat das Unternehmen jedoch begonnen, mit dem zusammenzuarbeiten Wieder Pentagon Nach der Sicherung einer gemeinsamen Cloud -Funktion von 9 Mrd. USD Vertrag Zusammen mit Microsoft, Amazon und Oracle. Google hatte auch aktive Verträge zu bieten AI zu den israelischen Verteidigungskräften. Der Tech Riese hatte arbeitete im Laufe der Zeit Um den Vertrag namens Project Nimbus aus dem Militärarm der israelischen Regierung zu distanzieren, enthüllte die Washington Post Dokumente, aus denen das Unternehmen nicht nur mit der IDF zusammenarbeitete, sondern beeilte sich, neue Anfragen nach mehr KI -Zugang nach den Angriffen am 7. Oktober zu erfüllen. Es ist unklar, wie die IDF die KI -Funktionen von Google verwendet, aber wie der Guardian das israelische Militär berichtete hat KI für eine Reihe von militärischen Zwecken verwendet, darunter, um Bombenziele zu finden und zu identifizieren.
In einer Erklärung sagte ein Google -Sprecher, Anna Kowalczyk, dass die Arbeit des Unternehmens mit der israelischen Regierung nicht „auf hochempfindliche, klassifizierte oder militärische Arbeitsbelastungen ausgerichtet sei, die für Waffen oder Geheimdienste relevant sind“.
Nach Newsletter Promotion
Organisatoren Bei No -Tech für Apartheid sagte die DEI- und KI -Ankündigungen zutiefst verwandt. Die „SVP of People Operations Fiona Cicconi hat intern mitgeteilt, dass der Umzug zu dem Abbau von DEI -Programmen zur Isolierung von Regierungsverträgen aus ‘Risiko’ durchgeführt wurde“, die Gruppe schrieb in einem am Dienstag veröffentlichten Anruf zum Handel. “Es ist wichtig zu beachten, dass der Großteil der staatlichen Ausgaben für Technologiedienste durch das Militär ausgegeben wird.”
Für jede Fragenkategorie von Mitarbeitern fasst die interne KI von Google alle Abfragen zu einer einzigen Abfrage zusammen. Die AI destillierte die Fragen zur Entwicklung von AI -Waffen zu: „Wir haben kürzlich einen Abschnitt unserer AI -Prinzipien entfernt, der versprach, die Technologie in potenziell schädlichen Anwendungen wie Waffen und Überwachung zu vermeiden. Warum haben wir diesen Abschnitt entfernt? “
Während das Unternehmen nicht alle Fragen sichtbar macht, enthält die Liste eine Momentaufnahme einiger von ihnen. Zu den Fragen, die die Mitarbeiter stellten, gehörten, wie die aktualisierten KI -Prinzipien sicherstellen würden, dass die Instrumente des Unternehmens „nicht für schädliche Zwecke missbraucht werden“ und die Führungskräfte gebeten werden, „bitte offen und ohne Corp Speak und Legalese zu sprechen“.
Die drittheiligste Frage, die die Mitarbeiter stellten, war, warum die KI-Zusammenfassungen so schlimm waren.
„Die KI -Zusammenfassungen von Fragen zu Fragen sind schrecklich. Können wir zurückkehren, um die Fragen zu beantworten, die die Leute tatsächlich gestellt haben? “ es lautete.
Source link