Ein aktueller Bericht des Internet Observatory der Stanford University hat Alarm über eine neue Flut von Internet-Nachrichten ausgelöst sexueller Missbrauch von Kindern durch künstliche Intelligenz erstelltes Material, das die bestehenden Behörden zu überfordern droht. Der Bericht hebt die großen Herausforderungen hervor, vor denen das Nationale Zentrum für vermisste und ausgebeutete Kinder steht (NCMEC) bei der Bekämpfung dieser eskalierenden Bedrohung.
Im vergangenen Jahr haben Fortschritte in der KI-Technologie es Kriminellen erleichtert, explizite Bilder von Kindern zu erstellen. Diese Entwicklungen haben das Volumen deutlich erhöht sexuelles Material von Kindern online, was die Bemühungen von Organisationen, die mit dem Schutz von Kindern und der Strafverfolgung von Straftätern beauftragt sind, erschwert.
Die CyberTipline ist verantwortlich für alle Berichte über (sexueller Missbrauch von Kindern Material) CSAM ist online verfügbar und ein wichtiges Instrument für Strafverfolgungsermittlungen. Allerdings ist die Tipp-Hotline bereits durch eine große Menge unvollständiger oder ungenauer Berichte belastet. Da die kleine Belegschaft Schwierigkeiten hat, mitzuhalten, dürfte die Hinzufügung hochrealistischer KI-generierter Inhalte diese Probleme noch verschärfen.
„Mit ziemlicher Sicherheit wird die Tipline in den kommenden Jahren mit äußerst realistisch aussehenden KI-Inhalten überflutet sein, was es für die Strafverfolgungsbehörden noch schwieriger machen wird, echte Kinder zu identifizieren, die gerettet werden müssen“, sagte Shelby Grossman, einer von ihnen die Autoren des Berichts.
Dieser aufstrebende Bereich der Kriminalität wird immer noch von Gesetzgebern und Strafverfolgungsbehörden definiert, was die Bekämpfung weiter erschwert. KI-generierte Bilder von CSAM sind laut Forschern illegal, wenn sie echte Kinder zeigen oder Bilder von echten Kindern zum Trainieren von Daten verwenden. Allerdings könnten synthetisch erstellte Bilder, die keine echten Personen abbilden, möglicherweise durch die freie Meinungsäußerung geschützt werden, was eine rechtliche Grauzone darstellt, die die Durchsetzung erschwert.
Die öffentliche Empörung über die Verbreitung von Online-Bildern von sexuellem Missbrauch von Kindern wurde kürzlich bei einer Anhörung mit den Geschäftsführern großer Technologieunternehmen, darunter Meta, Snap, TikTok, Discord und X, deutlich. Gesetzgeber kritisierten diese Unternehmen dafür, dass sie nicht genug zum Schutz junger Menschen tun Kinder online.
Als Reaktion darauf plädiert das NCMEC für eine Gesetzgebung, um seine Finanzierung zu erhöhen und den Zugang zu fortschrittlicherer Technologie zu ermöglichen. Stanford-Forscher, denen Zugang zu Interviews mit NCMEC-Mitarbeitern und ihren Systemen gewährt wurde, hoben die Schwachstellen und veralteten Systeme hervor, die dringend aktualisiert werden müssen.
„Im Laufe der Jahre nehmen die Komplexität der Berichte und die Schwere der Verbrechen gegen Kinder immer weiter zu. Daher führt die Nutzung neuer technologischer Lösungen im gesamten CyberTipline-Prozess dazu, dass mehr Kinder geschützt werden und Straftäter zur Verantwortung gezogen werden.“
Der Stanford-Bericht ergab, dass weniger als die Hälfte aller Meldungen an die CyberTipline im Jahr 2022 „umsetzbar“ waren, weil die Informationen der meldenden Unternehmen unzureichend waren oder sich Bilder im Internet schnell verbreiteten, was zu mehreren doppelten Meldungen führte. Diese Ineffizienz wird durch eine Option im Tipline-System verschärft, Inhalte als potenzielles Meme zu markieren, die oft nicht genutzt wird.
An einem einzigen Tag Anfang dieses Jahres erhielt die CyberTipline die Rekordzahl von einer Million Meldungen über CSAM, von denen sich viele auf ein Meme-Bild bezogen, das weithin geteilt wurde, um Empörung und nicht böswillige Absichten auszudrücken. Trotz des harmlosen Charakters dieser Berichte verbrauchten sie dennoch erhebliche Ermittlungsressourcen.
Der Trend zu zunehmenden Meldungen wird sich mit der Verbreitung von KI-generierten Inhalten wahrscheinlich noch verschärfen. „1 Million identische Bilder sind schwer genug, eine Million von KI erstellter separater Bilder würden sie kaputt machen“, – Alex Stamos, einer der Autoren des Stanford-Berichts.
Das NCMEC und seine Auftragnehmer unterliegen Einschränkungen bei der Nutzung von Cloud-Computing-Anbietern und müssen Bilder lokal speichern. Diese Einschränkung behindert die Fähigkeit der Organisation, die spezielle Hardware zu entwickeln und zu verwenden, die zum Erstellen und Trainieren von KI-Modellen zur Unterstützung ihrer Untersuchungen erforderlich ist. Darüber hinaus fehlt der Organisation die Technologie, um Gesichtserkennungssoftware umfassend zur Identifizierung von Opfern und Tätern einzusetzen, da ein Großteil der Berichtsverarbeitung immer noch manuell erfolgt.
Da der Kampf gegen KI-generiertes CSAM immer intensiver wird, wird der Bedarf an robusten und anpassungsfähigen Lösungen immer dringlicher. Der Kampf des NCMEC zum Schutz von Kindern hängt von seiner Fähigkeit ab, sich mit den neuen technologischen Bedrohungen weiterzuentwickeln und sicherzustellen, dass kein Kind der Ausbeutung ausgesetzt ist.
Wenn Sie oder jemand, den Sie kennen, sexuellen Missbrauch in Ihrer Kindheit erlebt haben und rechtliche Schritte einleiten möchten, wenden Sie sich bitte an uns unserem Team ist hier um zu helfen. Kontakt heute unter (206) 335-3880 oder (646)-421-4062 für eine vertrauliche Beratung und machen Sie den ersten Schritt in Richtung Gerechtigkeit und Abschluss.