Programm

Anwendertag IT-Forensik 2023

Zeit und Ort

Wann?

14. September 2023
10.00–19.00 Uhr

Wo?

Fraunhofer-Institut für Sichere Informationstechnologie SIT
Rheinstraße 75
64295 Darmstadt

Vorträge

10:00–10:15Begrüßung und Einleitung
Prof. Rüdiger Grimm, Fraunhofer SIT
10:15–11:00Manipulation, Dekontextualisierung und Fabrikation von Audiodaten: Herausforderungen und Analyseverfahren
Patrick Aichroth, Fraunhofer IDMT
11:00–11:45Grenzen von ChatGPT in der Regulatorik
Sarah Holschneider, eloquest GmbH
11:45–13:00Mittagspause
13:00–13:45AntiBias: Faire KI Modelle durch die Erkennung und Lösung von Bias
Dominik Lawatsch, secunet Security Networks AG

13:45–14:30

 

Deepfakes zur Ausübung von Straftaten – Anwendungen und Folgen sowie Anregungen zu Gegenmaßnahmen
A. Marschall, Dozentin an der Hochschule HÖMS (Fachbereich Polizei) und Ermittlungsbeamtin

14:30­–15:00

Kaffeepause
15:00–15:45Deepfakes in Videoverhandlungen bei Gericht
Simone Salemi und Bianca Steffes, Zentrum für Recht und Digitalisierung Saarbrücken (ZRD)
15:45–16:30Automatisierte Manipulation von medialen Identitäten („Deepfakes“): Gefahren und Gegenmaßnahmen
Matthias Neu, Bundesamt für Sicherheit in der Informationstechnik (BSI)
16:30–16:50Effiziente Bildsynthese mit 'Latent Generative Models'
Andreas Blattmann, Stability AI Ltd.
16:50–18:20World Café
18:20Schlussrunde & Verabschiedung, danach get together
ca. 19:00
Veranstaltungsende

Patrick Aichroth, Fraunhofer IDMT

Manipulation, Dekontextualisierung und Fabrikation von Audiodaten: Herausforderungen und Analyseverfahren

Manipulation, Dekontextualisierung und Fabrikation von Audiodaten sind keine neuen Phänomene, aber technologische Fortschritte, der verstärke Einsatz von KI und veränderte Verbreitungs- und Konsumformen stellen uns vor große Herausforderungen bzgl. Desinformationsanalyse und -erkennung. Im Vortrag werden verschiedene Ansätze und Technologien vorgestellt, die dabei helfen können, Audiodaten bzgl. ihrer Echtheit und Verbreitungswege zu analysieren.

Patrick Aichroth arbeitete als freiberuflicher Softwareentwickler und IT-Trainer, bevor er 2003 wissenschaftlicher Mitarbeiter am Fraunhofer IDMT wurde. Seit 2006 ist er Leiter der Forschungsgruppe Mediendistribution und Sicherheit am Fraunhofer IDMT, die sich mit der Entwicklung von Technologien für Mediensicherheit, Audio-Manipulationserkennung und -Herkunftsanalyse, technischem Datenschutz und vertrauenswürdiger KI beschäftigt, und zahlreiche industrielle und öffentlich geförderte FuE-Projekte in diesen Bereichen durchgeführt hat.

Sarah Holschneider, eloquest GmbH

Grenzen von Chat-GPT in der Regulatorik

Während Chat-GPT es schafft, in Sekunden Seiten zu füllen und damit die breite Gesellschaft fasziniert, sind Experten in der Regulatorik enttäuscht ob der mangelnden Rückverfolgbarkeit von Informationen, fehlender Kontrolle und schlechter algebraischer Leistungen. Standards in der Dokumentgenerierung sind jedoch oft nicht öffentlich zugänglich und variieren von Firma zu Firma. Modelle auf diese zu trainieren scheitert zumeist schon an der ungenügenden Verfügbarkeit von Daten.

Am Beispiel der Automatisierung klinischer Studienberichte wird erörtert, wo große Sprachmodelle unterstützen können, wo wir auf regelbasierte Ansätze ausweichen müssen und an welcher Stelle wir auch im Jahr 2023 noch abhängig vom Domänenwissen alteingesessener Experten sind. Digitalisierung wird als Entwicklungsprojekt verstanden, für das Errungenschaften aus der Forschung, Business Knowhow und Software-Entwicklung ineinandergreifen müssen. Um solide Lösungen für die Probleme von Firmen, Privatpersonen und Gesellschaften erstellen zu können, ist ein nüchternes Baukastensystem nötig, das von Problemstellungen und nicht Buzz-Words angetrieben wird.

Sarah Holschneider absolvierte ihr Studium der Übersetzungswissenschaft an der Uni Heidelberg und LLC (Linguistic and Literary Computing) an der TU Darmstadt. Danach habt sie ab 2017 als Computerlinguistin, später Head of NLP, die NLP-Abteilung bei L-One Systems aufgebaut. Im November 2022 wurde das gewachsene Team unter der Leitung von Lionel Born und Sarah Holschneider ausgegründet. Seit Januar 2023 sind wir nun als eigenständige Firma für NLG-Dienstleistungen am Start. Wir bauen Expertensysteme, die durch Automatisierung in der Textgenerierung Textarbeiter von redundanter Arbeit befreien. Interdisziplinarität und branchenübergreifendes Verständnis sind mir wichtig, was sich auch in unseren Eloquest-Lösungen widerspiegelt.

Dominik Lawatsch, secunet AG

AntiBias: Faire KI Modelle durch die Erkennung und Lösung von Bias

Künstliche Intelligenz (KI) birgt großes Potenzial für Anwendungen im Bereich der inneren Sicherheit. Ein Beispiel ist die Live-Analyse von Gesichtsbildern zur Gefahrenabwehr. Dabei gibt es allerdings eine große Herausforderung: Statistische Verzerrungen bei der Datengrundlage können dazu führen, dass KI tendenziöse Ergebnisse liefert, die im schlimmsten Fall bestimmte Personengruppen benachteiligen oder bevorzugen können. Das secunet KI & Data Science Team erforscht Lösungen, die diesem gefährlichen und folgenschweren Effekt entgegenwirkt und so dazu beitragen, dass KI-Anwendungen fair arbeiten und vertrauenswürdig sind. Mit der Forschung zu AntiBias wurde ein Prüfwerkzeug entwickelt, welches die Erkennungsleistung hinsichtlich der unterschiedlichen demographischen Gruppen analysiert und die daraus potentiell resultierenden Fehlschlüsse (Bias) erkennt und verbessert.

Dominik Lawatsch ist für das KI Business Development bei der secunet Security Networks AG verantwortlich. Dabei entwickelt und koordiniert er unter anderem die KI-Unternehmensstrategie in Absprache mit dem Vorstand, agiert unternehmensweit als KI-Systemarchitekt und initiiert Kooperationen in strategisch relevanten Bereichen. In der Division Innere Sicherheit konzipiert, leitet und initiiert er Projekte mit Behörden und Institutionen aus dem BOS-Umfeld. Seit 2013 beschäftigt sich Dominik Lawatsch mit künstlicher Intelligenz, unter anderem während des Studiums als langjähriger wissenschaftlicher Mitarbeiter am Lehrstuhl für Sprachtechnologie der Universität Duisburg-Essen sowie als Geschäftsführer einer eignen Firma mit Schwerpunkt KI-, Web- und Cloudentwicklung.

Antje Marschall, Dozentin an der Hochschule HÖMS (FB Polizei)

Deepfakes zur Ausübung von Straftaten – Anwendungen und Folgen sowie Anregungen zu Gegenmaßnahmen

Deepfakes sind synthetische Medien, die mit Hilfe von Deep Learning-Algorithmen erstellt werden, um Gesichter und Stimmen in bestehenden Bild-, Video- oder Audioaufnahmen auszutauschen. Aus strafrechtlicher Sicht birgt die Verbreitung von Deepfakes erhebliche Risiken. Die Nachahmungen sind so glaubwürdig, dass selbst eingesetzte Technik nicht zuverlässig den Einsatz von manipulierten Bild- und Stimmenmaterial nachweisen kann. Forensische Experten werden eingesetzt, um Deepfakes zu identifizieren und die Herkunft zu ermitteln, Deepfake Ersteller passen die Erkennungsmerkmale wiederum an, so dass eine Art „Wettrüsten“ um die Erkennbarkeit entsteht. Klassische Prävention wie Aufklärung, Bewusstseinsbildung („Awareness“), Schulung der Internetnutzer, Zusammenarbeit mit z.B. Technologieunternehmen und Regulierung der Verbreitung von Deepfake kann nur bedingt helfen, den Einsatz von Deepfake für Straftäter unattraktiv zu machen. Welche Maßnahmen erscheinen zielführend? Aktuell gibt es je nach Land unterschiedliche Gesetze und Vorschriften gegen den Missbrauch von Deepfakes. Einige Länder haben bereits spezifische Gesetze eingeführt oder planen, solche Gesetze zu erlassen. Ist die klassische Strafverfolgung ein wirksames Mittel gegen den missbräuchlichen Einsatz von Deepfake? Im Vortrag werden Beispiele vorgestellt, wie Deepfake missbräuchliche verwendet werden kann, welche Möglichkeiten bestehen, die Daten zu erheben und zu bewerten und wie der Einsatz von Deepfake erkannt und die damit verbundenen Auswirkungen verhindert werden können.

Antje Marschall ist als Ermittlerin tätig und Spezialistin für Cybercrime seit 2007. Dabei ist sie spezialisiert auf Ermittlungen in Sozialen Netzwerken, computerspezifische Delikte, Digitale Forensik und Unterstützung zu deliktsunabhängigen Ermittlungen, die Internetbezug aufweisen. Sie ist Dozentin an der Hochschule HÖMS (Hessische Hochschule für öffentliches Management und Sicherheit – Fachbereich Polizei) seit 2016 und hält regelmäßig Vorträge (Auszug): MADKON – Mainzer Digitalkongress, Cybersecurity Conference (Mannheim), Polytechnische Gesellschaft, Landkreis Marburg-Biedenkopf, Pädagogischer Tag Frankfurter Schulen, Arbeitskreis Medien Stadt Frankfurt. 

Simone Salemi und Bianca Steffes, Zentrum für Recht und Digitalisierung Saarbrücken

Deepfakes in Videoverhandlungen bei Gericht

Während der Corona-Pandemie gewannen Videokonferenzsysteme stark an Beliebtheit, weil die Möglichkeit, remote an Besprechungen teilzunehmen, relevanter wurde denn je. Das Konzept hält derweil auch verstärkt Einzug in die Justiz: Zwar existiert mit § 128a ZPO bereits seit dem Jahr 2001 die Möglichkeit, eine Verhandlung im Wege der Bild- und Tonübertragung durchzuführen. Größere Bedeutung erlangte die Norm allerdings erst, als während der Pandemie das Zusammentreffen mehrerer Parteien zu einer Gesundheitsgefährdung wurde. Die Videoverhandlung bringt in der Rechtspraxis diverse Probleme mit sich: Unter anderem die Frage, wie die Sicherheit der Videoverhandlung und auch die Authentizität der beteiligten Personen sichergestellt werden kann. Diese Sicherheitsaspekte sind aufgrund von stetig fortschreitenden Technologien zur Manipulation von Videos, wie etwa sogenannte Deepfakes, immer schwieriger zu gewährleisten. Deepfakes sind täuschend echt aussehende Manipulationen von Videos, mitunter auch in Echtzeit. Vor allem in Betracht der Tatsache, dass die Technologien zur Erstellung von Deepfakes auch für Laien immer leichter zugänglich werden, birgt dies eine große Gefahr für Videoverhandlungen. Dieser Vortrag beschäftigt sich daher mit der Frage, wie mit dieser Gefahr im Kontext der Videoverhandlung umzugehen ist.

Simone Salemi ist wissenschaftliche Mitarbeiterin am Saarbrücker Zentrum für Recht und Digitalisierung. Zuvor studierte sie Rechtswissenschaften an der Universität des Saarlandes und absolvierte den Studiengang "LL.M. IT und Recht". Sie beschäftigt sich mit der juristischen Seite der Schnittstelle von Informationstechnologie und Recht und forscht insbesondere an den Auswirkungen der Digitalisierung auf das Straf- und Strafprozessrecht. Seit 2022 promoviert sie in diesem Bereich am Lehrstuhl für Rechtsinformatik von Prof. Dr. Christoph Sorge.

Bianca Steffes ist Informatik-Doktorandin am Lehrstuhl für Rechtsinformatik der Universität des Saarlandes. Zuvor studierte sie Informatik an der Hochschule Trier. Sie forscht insbesondere zu den Themen Privacy by Design mit dem Schwerpunkt auf Wearables und Legal Tech. In den Arbeiten ihrer Promotion fokussiert sie sich auf den sinnvollen Einsatz von maschinellem Lernen und KI im Rechtsbereich, mit Fokus auf der Verarbeitung natürlicher Sprache.

 

Matthias Neu, BSI

Automatisierte Manipulation von medialen Identitäten („Deepfakes“): Gefahren und Gegenmaßnahmen

In diesem Vortrag werden Verfahren zur Manipulation von medialen Identitäten im Video-, Audio- und Textbereich aufgezeigt. Die Gefahrenszenarien durch die Technologie sind trotz aller Vorkehrungen weiterhin gegeben. Daher werden auch mögliche Gegenmaßnahmen vorgestellt, und auch welche Probleme der automatisierten Gegenmaßnamen (Generalizierbarkeit, adaptiver Angreifer, Forschung v.s. praktischer Einsatz) noch bestehen.

Matthias Neu hat 2018 seinen Master-Abschluss im Bereich Informatik mit dem Schwerpunkt Informationssicherheit erhalten. Seitdem arbeitet er als technischer Referent beim Bundesamt für Sicherheit in der Informationstechnik (BSI), wo er sich a) mit der Sicherheit von biometrischen Verfahren und b) mit der Sicherheit von KI-basierten Verfahren beschäftigt. Dabei untersucht er u.a. die Risiken, welche durch den Fortschritt im Bereich der Künstlichen Intelligenz entstanden sind, insbesondere im Kontext von „Deepfakes“ im Audio-Bereich..

Andreas Blattmann, Stability AI Ltd.

Effiziente Bildsynthese mit 'Latent Generative Models'

Spätestens der Release von Chat-GPT Ende des letzten Jahres hat den Fokus einer breiten Öffentlichkeit auf die vormals nur einer Community von Forschern und Internet-Usern tiefer bekannten ‘Generative KI’ gelenkt. Während generative Chatbots und vergleichbare Sprachmodelle weiterhin die wohl prominentesten Vertreter generativer KI-Modelle darstellen, zeigt sich auch für andere Datendomänen, wie z.B. Bilder und Videos, die enorme Leistungsfähigkeit dieser Systeme. Da aber insbesondere solche visuellen Daten grundlegend andere Eigenschaften haben als Text oder Sprache, weichen die Modell-Annahmen und -Details bei der Entwicklung und dem Design generativer Modelle für Bilder und Videos deutlich von denen für Sprachmodelle ab. Dieser Vortrag geht auf diese Unterschiede ein und zeigt, wie sich generative KI für visuelle Daten effizient und für Jedermann auf Consumer-Hardware anwenden lässt.

Andreas Blattmann arbeitet als Research-Scientist bei dem Londoner Startup ‘StabilityAI’ und ist Doktorand an der LMU München. Er war maßgeblich an der Forschung und Entwicklung des bekannten Open-Source Text-to-Image Modells ‘Stable Diffusion’, sowie seiner Nachfolgemodelle beteiligt. Seine Forschung beschäftigt sich hauptsächlich damit, geeignete Repräsentationen zu finden, um generative KI effizient auf hochdimensionalen visuellen Daten wie Bildern anwenden zu können. Er forscht des Weiteren daran, bestehende probabilistische Ansätze und generative Netzwerkarchitekturen in optimaler Weise zu kombinieren, um effizienter bessere Ergebnisse zu erhalten.