Der Assistent von Microsoft Copilot AI enthält den Inhalt von mehr als 20.000 privaten Github -Repositories von Unternehmen wie Google, Intel, Huawei, Paypal, IBM, Tencent und ironischerweise Microsoft.
Diese Repositorys, die von mehr als 16.000 Organisationen angehören, wurden ursprünglich als öffentlich in GitHub veröffentlicht, aber später auf privat eingestellt, oft nachdem die verantwortlichen Entwickler erkannt haben, dass sie Authentifizierungsanmeldeinformationen enthielten, die einen unbefugten Zugriff oder andere Arten vertraulicher Daten ermöglichen. Selbst Monate später bleiben die privaten Seiten jedoch in ihrer Gesamtheit über Copilot verfügbar.
Das KI -Sicherheitsunternehmen Lasso entdeckte das Verhalten in der zweiten Hälfte von 2024. Nachdem Lasso im Januar festgestellt hatte, dass Copilot weiterhin private Repositories aufbewahrte und sie zur Verfügung stellte, machte sie sich daran, zu messen, wie groß das Problem wirklich war.
Zombie -Repositories
„Nachdem wir erkannt haben, dass Daten zu Github, auch wenn sie nur einen Moment öffentlich sind, in indiziertem und möglicherweise von Tools wie Copilot ausgesetzt werden können, wurden wir davon getroffen, wie leicht diese Informationen zugegriffen werden könnten“ Post am Donnerstag. “Entschlossen, den vollen Umfang des Problems zu verstehen, machten wir uns daran, den Prozess der Identifizierung von Zombie -Repositories (Repositories, die einst öffentlich waren und jetzt privat waren) zu automatisieren und unsere Ergebnisse zu validieren.”
Nachdem Microsoft einen der eigenen privaten Repositorys von Lasso enthüllte, zeigten die Lasso -Forscher das Problem auf den Cache -Mechanismus in Bing. Die Microsoft -Suchmaschine indizierte die Seiten, als sie öffentlich veröffentlicht wurden, und machte sich nie die Mühe, die Einträge zu entfernen, sobald die Seiten auf GitHub in privat geändert wurden. Da Copilot Bing als primäre Suchmaschine verwendete, waren die privaten Daten auch über den AI -Chat -Bot verfügbar.
Nachdem Lasso das Problem im November gemeldet hatte, führte Microsoft Änderungen ein, die für die Behebung des Problems entwickelt wurden. Lasso bestätigte, dass die privaten Daten nicht mehr über Bing -Cache verfügbar waren, aber es machte eine interessante Entdeckung – die Verfügbarkeit in der Copilot eines Github -Repositorys, das nach einer Klage, die Microsoft eingereicht hatte, privat gemacht worden war. In der Klage wurde behauptet, das Repository gehostete Tools, die speziell entwickelt wurden, um die in den generativen KI -Diensten des Unternehmens eingebauten Sicherheits- und Sicherheitsberatungen zu umgehen. Das Repository wurde anschließend aus GitHub entfernt, aber wie sich herausstellte, stellte Copilot die Tools trotzdem weiter.
Source link