Experten glauben nicht, dass AI bereit ist, ein „Co-Wissenschaftler“ zu sein


Im vergangenen Monat kündigte Google das an “KI-Co-Wissenschaftler“Eine KI, die das Unternehmen sagte, dass Wissenschaftler bei der Erstellung von Hypothesen und Forschungsplänen helfen sollten. Google hat es als Möglichkeit vorgestellt, neues Wissen aufzudecken, aber Experten denken, dass es – und Tools wie es – weit hinter den PR -Versprechen zurückbleiben.

“Dieses vorläufige Werkzeug scheint zwar interessant zu sein, aber es scheint nicht ernst zu werden, dass Sarah Beery, Forscher des Computer Vision am MIT, gegenüber TechCrunch. “Ich bin mir nicht sicher, ob diese Art von Hypothesen-Generationssystem aus der wissenschaftlichen Gemeinschaft nachgefragt wird.”

Google ist der neueste Technologiegigant, der die Vorstellung vorantreibt, dass KI eines Tages die wissenschaftliche Forschung dramatisch beschleunigen wird, insbesondere in literaturartigen Bereichen wie Biomedizin. In einem Aufsatz Anfang dieses JahresSam Altman, CEO von OpenAI, sagte, dass “Superintelligent” -KI -Tools “wissenschaftliche Entdeckungen und Innovationen massiv beschleunigen” könnten. In ähnlicher Weise hat der anthropische CEO Dario Amodei mutig vorausgesagt, dass KI könnte Helfen Sie mit, Heilmittel für die meisten Krebsarten zu formulieren.

Viele Forscher betrachten AI heute nicht als besonders nützlich, um den wissenschaftlichen Prozess zu leiten. Anwendungen wie der Co-Wissenschaftler von Google scheinen mehr Hype als alles andere zu sein, und sie werden nicht durch empirische Daten unterstützt.

Zum Beispiel in seinem Blog -Beitrag Google beschreibt den Co-Wissenschaftler von AI und sagte, das Tool habe bereits Potenzial in Bereichen wie der Umgestaltung von Arzneimitteln für akute myeloische Leukämie, einer Art Blutkrebs, das das Knochenmark betrifft, gezeigt. Die Ergebnisse sind jedoch so vage, dass „kein legitimer Wissenschaftler (sie) ernst nehmen würde“, sagte Favia Dubyk, ein Pathologe, der mit dem Northwest Medical Center-Tucson in Arizona verbunden war.

“Dies könnte als guter Ausgangspunkt für Forscher verwendet werden, aber (…) ist der Mangel an Details besorgniserregend und leiht mich nicht, um ihm zu vertrauen”, sagte Dubyk gegenüber TechCrunch. “Der Mangel an Informationen macht es sehr schwer zu verstehen, ob dies wirklich hilfreich sein kann.”

Es ist nicht das erste Mal, dass Google von der wissenschaftlichen Gemeinschaft dafür kritisiert wurde, einen vermeintlichen KI -Durchbruch zu trompeten, ohne die Ergebnisse zur Reproduktion der Ergebnisse zu bieten.

Im Jahr 2020 Google behauptet Eines seiner KI -Systeme, die zur Erkennung von Brusttumoren ausgebildet wurden, erzielte bessere Ergebnisse als menschliche Radiologen. Forscher aus Harvard und Stanford veröffentlichten eine Widerlegung in der Zeitschrift Naturund das Fehlen detaillierter Methoden und Code in Googles Forschung untergraben (d) seinen wissenschaftlichen Wert.

Wissenschaftler haben Google auch wegen der Einschätzung der Einschränkungen seiner KI -Tools auf wissenschaftliche Disziplinen wie der Materialtechnik beschleunigt. Im Jahr 2023 sagte das Unternehmen, rund 40 „neue Materialien“ seien gewesen synthetisiert Mit Hilfe eines seiner KI -Systeme, genannt GNOME. Noch, eine externe Analyse In der Tat war kein einziges der Materialien neu.

“Wir werden die Stärken und Einschränkungen von Tools wie” Co-Wissenschaftler “von Google nicht wirklich verstehen, bis sie eine strenge, unabhängige Bewertung in verschiedenen wissenschaftlichen Disziplinen durchlaufen”, sagte Ashique Khudabukhsh, Assistenzprofessorin für Software-Engineering am Rochester Institute of Technology, gegenüber TechCrunch. “KI leistet in kontrollierten Umgebungen häufig gut, kann jedoch bei der Anwendung im Maßstab fehlschlagen.”

Komplexe Prozesse

Ein Teil der Herausforderung bei der Entwicklung von KI -Instrumenten zur Unterstützung der wissenschaftlichen Entdeckungen ist die Erwartung der unermesslichen Anzahl von Störfaktoren. KI könnte in Bereichen, in denen eine breite Erkundung benötigt wird, nützlich sein, beispielsweise eine große Liste von Möglichkeiten einzudämmen. Es ist jedoch weniger klar, ob KI in der Lage ist, die Art von Problemlösungen außerhalb des Boxs zu finden, die zu wissenschaftlichen Durchbrüchen führt.

“Wir haben im Laufe der Geschichte gesehen, dass einige der wichtigsten wissenschaftlichen Fortschritte, wie die Entwicklung von mRNA -Impfstoffen, von menschlicher Intuition und Ausdauer angesichts der Skepsis getrieben wurden”, sagte Khudabukhsh. “KI, wie es heute aussieht, ist möglicherweise nicht gut geeignet, um das zu replizieren.”

Lana Sinapayen, AI-Forscherin bei Sony Informatik Laboratories in Japan, ist der Ansicht, dass sich Tools wie die Co-Wissenschaftlerin von Google auf die falsche Art von wissenschaftlichen Beinarbeiten konzentrieren.

Sinapayen sieht einen echten Wert in KI, der technisch schwierige oder mühsame Aufgaben automatisieren könnte, z. B. die Zusammenfassung neuer akademischer Literatur oder die Formatierung von Arbeiten, um die Anforderungen einer Zuschussanwendung zu erfüllen. In der wissenschaftlichen Gemeinschaft gibt es jedoch keine große Nachfrage nach einem KI-Co-Scientist, der Hypothesen erzeugt, sagt sie-eine Aufgabe, aus der viele Forscher intellektuelle Erfüllung ableiten.

“Für viele Wissenschaftler, eingeschlossen, ist die Erzeugung von Hypothesen der lustigste Teil des Jobs”, sagte Sinapayen gegenüber TechCrunch. „Warum sollte ich meinen Spaß an einen Computer auslagern und dann nur die harte Arbeit, um mich selbst zu tun, zurückbleiben? Im Allgemeinen scheinen viele generative KI -Forscher missverstanden zu verstehen, warum Menschen das tun, was sie tun, und wir haben Vorschläge für Produkte, die genau den Teil automatisieren, an dem wir Freude bekommen. “

Beery stellte fest, dass der schwierigste Schritt im wissenschaftlichen Prozess häufig darin besteht, die Studien und Analysen zu entwerfen und umzusetzen, um eine Hypothese zu überprüfen oder zu widerlegen – die nicht unbedingt in Reichweite der aktuellen KI -Systeme nicht in Reichweite liegt. KI kann natürlich keine physischen Tools verwenden, um Experimente durchzuführen, und es wird häufig schlechter bei Problemen, für die extrem begrenzte Daten vorhanden sind.

“Die meisten Wissenschaft sind nicht möglich, virtuell vollständig zu tun – es gibt häufig einen wesentlichen Bestandteil des wissenschaftlichen Prozesses, der physisch ist, z. B. das Sammeln neuer Daten und die Durchführung von Experimenten im Labor”, sagte Beery. “Eine große Einschränkung der Systeme (wie der Co-Wissenschaftler von Google) im Vergleich zum tatsächlichen wissenschaftlichen Prozess, der seine Benutzerfreundlichkeit definitiv einschränkt, ist ein Zusammenhang mit dem Labor und dem Forscher, das das System und ihre spezifischen Forschungsziele, ihre vergangene Arbeit, ihre Fähigkeiten und die Ressourcen, auf die sie zugegriffen haben, nutzen.”

KI -Risiken

Die technischen Mängel und Risiken von AI – wie seine Tendenz zu halluzinieren – Außerdem machen Wissenschaftler sich vor, es für ernsthafte Arbeit zu unterstützen.

Khudabukhsh befürchtet, dass KI -Tools in der wissenschaftlichen Literatur einfach Lärm erzeugen und nicht den Fortschritt erhöhen könnten.

Es ist schon ein Problem. Eine kürzlich durchgeführte Studie stellte fest, dass die KI-Junk Science Google Scholar, Googles kostenlose Suchmaschine für wissenschaftliche Literatur, überschwemmt.

“A-generierte Forschungen, wenn sie nicht sorgfältig überwacht werden, könnten das wissenschaftliche Feld mit niedrigeren oder sogar irreführenden Studien überschwemmen und den Peer-Review-Prozess überwältigen”, sagte Khudabukhsh. “Ein überwältigter Peer-Review-Prozess ist in Bereichen wie Informatik bereits eine Herausforderung, auf denen Top-Konferenzen einen exponentiellen Anstieg der Einreichungen verzeichnet haben.”

Selbst gut gestaltete Studien könnten durch schlechtes Einhalten von KI verdorben werden, sagte Sinapayen. Während sie die Idee eines Tools mag, das bei der Literaturübersicht und -synthese helfen könnte, sagte Sinapayen, dass sie KI heute nicht vertrauen würde, um diese Arbeit zuverlässig auszuführen.

“Das sind Dinge, die verschiedene vorhandene Tools behaupten, aber das sind keine Jobs, die ich persönlich der aktuellen KI überlassen würde” Viele AI -Systeme werden trainiert und die Energiemenge, die sie verbrauchensowie. “Auch wenn alle ethischen Probleme (…) gelöst wurden, ist die aktuelle KI einfach nicht zuverlässig genug, damit ich meine Arbeit auf die eine oder andere Weise auf ihre Ausgabe stützt.”



Source link