13.10.2023
09:00 - 09:45 Uhr

Vortrag
Automation & Tools

Salon 8

Marc Hauer
Trusted AI GmbH

Tobias Krafft
Trusted AI GmbH

Alle wollen {faire,gute,...} KI, aber wie geht das? - Assurance Cases als Methode zur Gewährleistung komplexer Anforderungen von KI-Systemen

Die wachsende Bedeutung von künstlicher Intelligenz (KI) führt zu einer Vielzahl an Anforderungen aus unterschiedlichen Bereichen wie Politik aber auch  Zivilgesellschaft.  Durch ihre Einbettung in komplexe soziotechnische Systeme gibt es komplexe Anforderungen welche oft uneindeutig und veränderlich sind. Darüber hinaus kann sich die Funktionsweise von KI-Systemen nicht nur, wie bei klassischer Software auch, durch funktionale Updates verändern, sondern auch durch einen fortgeführten Trainingsprozess.

Alle wollen {faire,gute,...} KI Systeme. International arbeiten Gremien an Grundsatzpapieren, Strategiepapieren und Weißbüchern, in denen erläutert wird, welche Ziele im Umgang mit solchen Systemen erreicht werden sollen. Konkrete Umsetzungsvorschläge, d.h., wie diese Ziele erreicht werden sollen, werden meist nicht gemacht.

In unserem Vortrag präsentieren wir unsere Adaption des Assurance Case Framework auf das Testen von KI-Systemen. Der dabei zugrundeliegend Ansatz ist seit über 50 Jahren im Bereich Safety & Security Engineering ein bewährtes Standartinstrument um komplexe Anforderungen an Systeme in überprüfbare Aussagen herunterzubrechen.

Wir haben dazu einen eigenen Prozess entwickelt der alle relevanten Stakholder umfasst, diesem im Rahmen eines Industrieprojektes praktsich erprobt und verfeinert, und kürzlich auf einer Konferenz mit experten diskutiert. Nun möchten wir auch Ihnen unsere Erkenntnisse und Erfahrungen vorstellen und sie zur Diskussion mit uns einladen: Assurance Cases als Methode zur Gewährleistung komplexer Anforderungen von KI-Systemen - welches Potential liegt in der Methode und welche Herausforderungen müssen wir noch meistern?

Marc Hauer, Trusted AI GmbH

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern Landau. Er promoviert derzeit zu der Frage wie man Softwareentwicklungsprozesse und Softwaresysteme (primär KI-basierte Systeme) accountable gestalten kann. Seine Arbeit umfasst unter anderem die Themenkomplexe: Accountability Theorie, Testing, Auditing, Zertifizierung, Normung, Regulierung und Corporate Digital Responsibility. Er war bisher an der Entwicklung der Normungsroadmap KI 1.0 und 2.0 der DIN, sowie mehreren Ministerial- und Industrieprojekten beteiligt, mit dem Ziel theoretische Überlegungen direkt in der Praxis zu erproben. Darüber hinaus ist er als medienpädagogischer Referent für das Landesmedienzentrum Baden-Württemberg, sowie als Fachreferent für die Trusted AI GmbH tätig.

Tobias Krafft, Trusted AI GmbH

Tobias D. Krafft ist Doktorand am Lehrstuhl »Algorithm Accountability« von Prof. Katharina A. Zweig an der TU Kaiserslautern, Geschäftsführer der Trusted AI GmbH. Er ist Experte für Blackbox-Analysen und Regulierungsansätze von algorithmischen Entscheidungssystemen weshalb ihn die DIN im Oktober 2019 im Rahmen der Normungsroadmap KI zum Leiter der Arbeitsgruppe „Ethik/Responsible AI“ ernannt hat. Als Träger des Weizenbaumpreises 2017 des Forums Informatiker für Frieden und gesellschaftliche Verantwortung reichen seine Forschungsinteressen von der (reinen) Analyse algorithmischer Entscheidungssysteme bis hin zum Diskurs um deren Einsatz im gesellschaftlichen Kontext. Er ist einer der Sprecher der Regionalgruppe Kaiserslautern der Gesellschaft für Informatik, die es sich zur Aufgabe gemacht hat, den interdisziplinären Studiengang der Sozioinformatik (TU Kaiserslautern) in die Gesellschaft zu tragen.