TSein Jahr werden Hunderte von Milliarden Dollar sein ausgegeben Um die KI -Systeme zu skalieren, um übermenschliche Fähigkeiten zu verfolgen. CEOs führender KI -Unternehmen wie Elon Musk von OpenAIs Sam Altman und Xai erwarten, dass ihre Systeme in den nächsten vier Jahren klug genug sein werden, um die meisten kognitiven Arbeiten zu erledigen – denken Sie an jeden Job, der mit nur einem Laptop erledigt werden kann – wie oder besser als Menschen.
Ein solcher Fortschritt, sofern die Führer einverstanden sind, würde die Gesellschaft grundlegend verändern. Google -CEO Sundar Pichai hat wiederholt beschrieben KI als “die tiefgreifendste Technologie, an der die Menschheit arbeitet”. Demis Hassabis, der Googles AI Research Lab Google Deepmind leitet, argumentiert Die sozialen Auswirkungen von AI werden eher der Brand oder Elektrizität als der Einführung von Mobiltelefonen oder dem Internet aussehen.
Im Februar nach einem internationalen AI Summit In Paris, anthropischer CEO Dario Amodei wiederholt Seine Überzeugung, dass bis 2030 „KI -Systeme am besten als ein völlig neuer Staat angesehen werden, der von hoch intelligenten Menschen besiedelt ist“. Im selben Monat, Moschus, Apropos In dem Podcast von Joe Rogan Experience sagte: „Ich denke, wir trendten in den nächsten Jahren etwas, das schlauer als der klügste Mensch ist. Er fuhr fort: “Es gibt ein Level über das, was schlauer ist als alle Menschen zusammen, was ehrlich gesagt um 2029 oder 2030 liegt.”
Wenn diese Vorhersagen sogar teilweise korrekt sind, könnte sich die Welt bald radikal verändern. Es gibt jedoch keinen Konsens darüber, wie diese Transformation behandelt werden wird oder sollte.
Mit überaus fortgeschrittenen KI -Modellen freigegeben Auf monatlicher Basis und der Trump-Verwaltung scheinbar nicht daran interessiert, die Technologie zu regulieren, sind die Entscheidungen der Führer des Privatsektors mehr denn je wichtig. Aber sie unterscheiden sich in ihren Einschätzungen, welche Risiken am wichtigsten sind und was auf dem Spiel steht, wenn etwas schief geht. So wie: wie:
Existenzielles Risiko oder nicht zuweisbare Chancen?
“Ich dachte immer, AI würde viel schlauer sein als Menschen und ein existenzielles Risiko, und das erweist sich als wahr”, sagte Musk im Februar und bemerkte, dass er glaubt, dass es eine 20% ige Chance auf eine menschliche „Vernichtung“ von KI gibt. Während Schätzungen variieren, kann die Idee, dass fortschrittliche KI -Systeme die Menschheit zerstören könnten, zum Ursprung vieler Labors, die die Technologie heute entwickeln. Im Jahr 2015 Altman angerufen Die Entwicklung der übermenschlichen maschinellen Intelligenz „wahrscheinlich die größte Bedrohung für die fortgesetzte Existenz der Menschheit“. Neben Hassabis und Amodei unterschrieb er a Stellungnahme Im Mai 2023 erklärt, dass „das Risiko des Aussterbens der KI neben anderen Risiken im gesellschaftlichen Maßstab wie Pandemics und Atomkrieg eine globale Priorität haben sollte“.
“Es ist seltsam, dass einige Führungskräfte der Meinung sind, dass AI so brillant sein kann, dass sie die Probleme der Welt lösen und Lösungen verwenden, an die wir nicht gedacht haben, aber nicht so brillant, dass es den Kontrollbeschränkungen, an die wir denken, nicht entkommen kann”, sagt, sagt es ” Margaret MitchellChefethikwissenschaftlerin bei Umarmung. Sie merkt an, dass der Diskurs manchmal KI verbindet, die Menschen mit KI ergänzen, die sie ersetzen. “Sie können nicht die Vorteile von beiden und die Nachteile von beiden haben”, sagt sie.
Für Mitchell, Risiko erhöht Wenn Menschen die Kontrolle über zunehmend autonome Agenten abgeben. Da wir das Verhalten von AI -Agenten nicht vollständig kontrollieren oder vorhersagen können, führen wir „ein massives Risiko von KI -Agenten aus, die ohne Zustimmung zu einer Zustimmung dazu beitragen, dass wir Bankenkonten abtropfen lassen, uns ausgeben, um schreckliche Dinge zu sagen und zu tun oder bestimmte Bevölkerungsgruppen zu bombardieren“, erklärt sie.
„Die meisten Menschen betrachten dies nur als eine andere Technologie und und nicht als neue Art, wie Sie darüber nachdenken sollten“, sagt Professor Max TegmarkMitbegründer und Präsident des Future of Life Institute. Er erklärt, dass das Standard -Ergebnis beim Aufbau von Maschinen auf dieser Ebene die Kontrolle über sie verliert, was zu unvorhersehbaren und potenziell katastrophalen Ergebnissen führen könnte.
Trotz der Befürchtungen vermeiden andere Führungskräfte die Sprache der Superintelligenz und des existenziellen Risikos und konzentrieren sich stattdessen auf den positiven Vorteil. “Ich denke, wenn die Geschichte zurückblickt, wird dies den Beginn eines goldenen Zeitalters der Innovation sehen” sagte auf dem Pariser Gipfel im Februar. “Das größte Risiko könnte aussehen.”
Ähnlich, gefragt Mitte 2023, ob er der Meinung ist, dass wir auf dem Weg zur Erstellung von Superintelligenz sind, sagte Microsoft-CEO Satya Nadella, er sei “viel mehr auf die Vorteile für uns alle”. „Ich werde von der Tatsache heimgesucht, dass die industrielle Revolution die Teile der Welt nicht berührt, in denen ich bis viel später aufgewachsen bin. Ich suche also nach dem Ding, das noch größer sein kann als die industrielle Revolution, und wirklich zu tun, was die industrielle Revolution für den Westen für alle auf der Welt getan hat. Also mache ich mir überhaupt keine Sorgen um Agi (künstliche allgemeine Intelligenz) auftauchen oder schnell auftauchen “, sagte er.
Mehr lesen: Wie offener Sam Altman von Openai über Agi und Superintelligence im Jahr 2025 denkt
Ein Rennen zwischen Ländern und Unternehmen
Selbst unter denjenigen, die glauben, dass KI ein existenzielles Risiko darstellt, besteht die weit verbreitete Überzeugung, dass jede Verlangsamung in der Amerikas KI -Entwicklung es ausländischen Gegnern – insbesondere China – ermöglichen wird, im Rennen voranzutreiben, um transformative KI zu schaffen. Zukünftige KI -Systeme könnten in der Lage sein, neuartige Massenvernichtungswaffen zu schaffen oder das nukleare Arsenal eines Landes versteckt zu hacken – wirksam das globale Kräfteverhältnis über Nacht effektiv.
“Ich habe das Gefühl, dass fast jede Entscheidung, die ich treffe, am Rand eines Messers ausgeglichen ist” sagte Anfang dieses Monats erklärte, dass das Gebäude zu einem schnellen Risiko, dass die Menschheit die Kontrolle verliert, “wenn wir nicht schnell genug bauen, könnten die autoritären Länder gewinnen.”
Diese Dynamik spielt nicht nur zwischen Ländern, sondern zwischen Unternehmen. Als Helen TonerEin Direktor des Georgetown-Zentrums für Sicherheit und aufstrebende Technologie erklärt: „Es gibt oft eine Trennung zwischen dem Idealismus in öffentlichen Aussagen und der hartnäckigen Geschäftslogik, die ihre Entscheidungen antreibt.“ Toner verweist auf den Wettbewerb um Veröffentlichungsdaten als klares Beispiel dafür. “Es gab mehrere Fälle, in denen KI -Teams gezwungen wurden, Ecken und Schritte zu schneiden, um einen Konkurrenten zum Starttag zu schlagen”, sagt sie.
Mehr lesen: Wie China trotz der US -Chip -Beschränkungen in KI voranschreitet
Für den Meta -CEO Mark Zuckerberg ist die Sicherstellung, dass fortschrittliche KI -Systeme nicht von einer einzigen Einheit gesteuert werden, von entscheidender Bedeutung für die Sicherheit. “Ich mochte die Theorie irgendwie, dass es nur Gott ist, wenn nur eine Firma oder Regierung sie kontrolliert” sagte Im Januar. “Der beste Weg, um sicherzustellen, dass es nicht außer Kontrolle gerät, besteht darin, es so zu schaffen, dass es ziemlich gleich verteilt ist”, behauptete er und wies auf die Bedeutung von Open-Source-Modellen hin.
Parameter für die Kontrolle
Während fast jedes Unternehmen, das fortschrittliche KI -Modelle entwickelt Richtlinien und Verfahren zur Sicherheit – und die meisten haben gemacht freiwillige Verpflichtungen An die US -Regierung zu Vertrauen, Sicherheit und Ermöglichung von Dritten, ihre Modelle zu bewerten – wird nicht durch die Rechtskraft unterstützt. Tegmark ist optimistisch, dass die Sicherheitsstandards, wenn das nationale Sicherheitseinricht der USA die Ernsthaftigkeit der Bedrohung akzeptiert. “Sicherheitsstandard Nummer eins”, sagt er, dass Unternehmen nachweisen müssen, wie sie ihre Modelle unter Kontrolle halten möchten.
Einige CEOs spüren das Gewicht ihrer Kraft. “Es gibt eine große Menge an Verantwortung – wahrscheinlich zu viel – auf die Menschen, die diese Technologie führen”, sagte Hassabis im Februar. Der Google DeepMind -Leiter hat sich zuvor für die Schaffung neuer Institutionen, ähnlich der Europäischen Organisation für Nuklearforschung (CERN) oder der Internationalen Energieagentur, eingesetzt, Regierungen zusammenzubringen, um die KI -Entwicklungen zu überwachen. “Die Gesellschaft muss darüber nachdenken, welche Art von Regierungsgremien benötigt werden”, sagte er.
Dies ist leichter gesagt als getan. Obwohl es immer schwierig war, verbindliche internationale Vereinbarungen zu schaffen, ist es „unrealistischer als je zuvor“, sagt Toner. In der Inlandsfront weist Tegmark darauf hin: „Im Moment gibt es mehr Sicherheitsstandards für Sandwich -Shops als für KI -Unternehmen in Amerika.“
Nadella, die über Agi und Superintelligence auf einem diskutiert werden Podcast Im Februar betonte seine Ansicht, dass die „Rechtsinfrastruktur“ der größte „Tarif -Limiter“ für die Macht zukünftiger Systeme sein wird und möglicherweise deren Einsatz verhindert. “Bevor es ein echtes Problem ist, wird das eigentliche Problem vor Gericht liegen”, sagte er.
Ein “Oppenheimer Moment”
Mitchell sagt, dass die Unternehmensleiter von AI „unterschiedliche Ebenen ihrer eigenen menschlichen Bedenken und Gedanken“ in diese Diskussionen bringen. Tegmark befürchtet jedoch, dass einige dieser Führer „dem Wunschdenken zum Opfer fallen“, indem sie glauben, dass sie in der Lage sein werden, die Superintelligenz zu kontrollieren, und dass viele jetzt ihren eigenen gegenüberstehen “Oppenheimer Moment.”
Er verweist auf eine ergreifende Szene in diesem Film, in der Wissenschaftler ihre Schöpfung von den Militärbehörden wegnehmen sehen. “In diesem Moment erkennen die Bauherren der Technologie, dass sie die Kontrolle über ihre Schöpfung verlieren”, sagt er. “Einige der CEOs spüren das gerade.”
Source link