Google DeepMind enthüllt neue KI -Modelle im Rennen, um Roboter nützlich zu machen


Schalte die Digest des Herausgebers kostenlos frei

Google DeepMind hat künstliche Intelligenzmodelle für Robotik vorgestellt, die es als Meilenstein in der langen Suche nach den allgemeinen Maschinen nützlicher und praktischerer Maschinen in der Alltagswelt vorgestellt hat.

Die neuen Robotikmodelle des Unternehmens namens Gemini Robotics und Gemini Robotics-Er helfen Robotern dabei, sich an komplexe Umgebungen anzupassen, indem sie die Argumentationsfunktionen großer Sprachmodelle nutzen, um komplizierte reale Aufgaben zu erledigen.

Laut Google DeepMind konnte ein mit seinen neuer Modelle trainierter Roboter einen Origami -Fuchs falten, einen Schreibtisch gemäß verbalen Anweisungen organisieren, Kopfhörerdrähte einwickeln und einen Miniaturbasketball durch einen Reifen schlagen. Das Unternehmen arbeitet auch mit Start-up Apptronik zusammen, um humanoide Roboter mithilfe dieser Technologie aufzubauen.

Die Entwicklung erfolgt als technische Gruppen, einschließlich Tesla und Openai, und Start-ups rennen den Aufbau des KI „Gehirn“, das die Robotik in Bewegungen autonom betreiben kann, die eine Reihe von Branchen von der Fertigung bis zur Gesundheitsversorgung verändern könnten.

Jensen Huang, Geschäftsführer von Chipmaker Nvidia, sagte in diesem Jahr, dass die Verwendung von generativen KI, Roboter im Maßstab eingesetzt wird Multitrillion-Dollar-Gelegenheit Das wird „den Weg zur„ größten Technologieindustrie, die die Welt jemals gesehen “ebnen.

Die Fortschritte in der fortgeschrittenen Robotik waren in den letzten Jahrzehnten sorgfältig langsam, und Wissenschaftler kodieren jeden Schritt, den ein Roboter machte, manuell. Dank neuer KI -Techniken konnten Wissenschaftler Roboter ausbilden, um sich besser an ihre Umgebung anzupassen und Lernen Sie viel schneller neue Fähigkeiten.

“Die Robotik der Gemini ist doppelt so allgemein wie unsere früheren besten Modelle und machen einen bedeutenden Sprung in Richtung Allzweckroboter”, sagte Kanishka Rao, Haupttechniker für den Hauptsoftware bei Google DeepMind.

Um das Gemini Robotics -Modell zu erstellen, verwendete Google sein Gemini 2.0 -Sprachmodell und trainierte es speziell, um Roboter zu kontrollieren. Dies gab Robotern einen Leistungsschub und ermöglichte es ihnen, drei Dinge zu tun: sich an verschiedene neue Situationen anzupassen, schnell auf verbale Anweisungen oder Änderungen in ihrer Umgebung zu reagieren und geschickt genug zu sein, um Objekte zu manipulieren.

Eine solche Anpassungsfähigkeit wäre ein Segen für diejenigen, die die Technologie entwickeln, da ein großes Hindernis für die Robotik darin besteht, dass sie in Labors gut abschneiden, aber in weniger eng kontrollierten Umgebungen schlecht.

Um Gemini -Robotik zu entwickeln, nutzte Google Deepmind das breite Verständnis der Welt, die von Großsprachmodellen ausgestellt wurde, die auf Daten aus dem Internet geschult wurden. Zum Beispiel konnte ein Roboter die Kaffeetasse mit zwei Fingern schnappen.

“Dies ist sicherlich eine aufregende Entwicklung im Bereich der Robotik, die auf den Stärken von Google in sehr großen Daten und Berechnungen aufbauen scheint”, sagte Ken Goldberg, Professor Robotik an der University of California, Berkeley, der nicht Teil der Forschung war.

Er fügte hinzu, dass einer der neuesten Aspekte dieser neuen Robotikmodelle darin besteht, dass sie in der Cloud reibungslos laufen, vermutlich, weil sie den Zugriff von Google auf sehr große Sprachmodelle nutzen könnten, die eine erhebliche Computerleistung erfordern.

„Dies ist eine beeindruckend umfassende Anstrengung mit überzeugenden Ergebnissen, die von räumlicher Begründung bis hin zu geschickter Manipulation reichen. Es ist ein ziemlich überzeugender Beweis dafür, dass stärkere Basismodelle (Vision-Sprache) zu einer besseren Manipulationsleistung führen können “, sagte Russ Tedrake, Professor am Massachusetts Institute of Technology und Vizepräsident der Robotics Research am Toyota Research Institute.

“Gemini ist ein wichtiger Schritt”, sagte Goldberg. „Es bleibt jedoch noch viel zu tun, bevor allgemeine Roboter für die Adoption bereit sind.



Source link