BAS21 Key Visual 2021 - Big Data AI Summit
Get Started Deeptech Network:

AI Act Update für Startups

Startups und die KI-Verordnung
AI Act Update #2

30. Januar 2025 | 10:00 - 11:00 Uhr | Online

In der nächsten Ausgabe des AI Act Updates wird Evelyn Graß, Referatsleiterin VIA2 („Künstliche Intelligenz”) im Bundesministerium für Wirtschaft und Klimaschutz, Rede und Antwort stehen und uns zu aktuellen Entwicklungen informieren. 

zur Anmeldung

Key Takeaways der vergangenen Termine

21.11.2024 | Get Started Deeptech Network AI Act Update #1

Wie verändert die KI-Verordnung die Rahmenbedingungen für Startups? Welche Schritte sind jetzt notwendig, um KI-Anwendungen rechtskonform zu gestalten? Ist das eigene Startup bereit für die neuen KI-Richtlinien - und welche Chancen ergeben sich daraus? Um diese und weitere Fragen ging es bei der ersten Ausgabe des AI Act Updates. 
 

Das Wichtigste in Kürze

Wichtige Anforderungen pro Risikokategorie: Minimal- und begrenztes Risiko: keine bis geringe Verpflichtungen, z.B. Transparenzpflichten; hohes Risiko: Details zu wichtigen Anforderungen; inakzeptables Risiko: bestimme KI-Anwendungen sind verboten


Minimal- und begrenztes Risiko:
Diese Kategorisierung umfasst KI-Systeme, die keine oder nur sehr geringe Risiken für die Gesellschaft oder die Rechte von Personen darstellen. Diese Systeme unterliegen nur geringen Verpflichtungen, vor allem Transparenzpflichten. Ein Beispiel wäre eine KI, die einfache Aufgaben wie die Empfehlung von Filmen übernimmt. Um unnötige Bürokratie zu vermeiden und die Entwicklung von KI zu fördern, die keine signifikanten Risiken darstellt.
 

Hohes Risiko:
Diese KI-Systeme können erhebliche Auswirkungen auf die Sicherheit und grundlegende Rechte der Nutzer haben. Sie werden in zwei Hauptkategorien unterteilt:

  • Kombination mit Produktvorschriften (z.B. KI in Medizinprodukten, Flugzeugen, Autos)
  • KI in kritischen Bereichen (z.B. Gesundheitswesen, Bildung, Justiz, Migration, Polizei)

Diese Systeme müssen registriert und geprüft werden, bevor sie auf den Markt kommen. Sie unterliegen umfangreichen Anforderungen bezüglich Datensicherheit, Dokumentation und regelmäßiger Überprüfung.
Um sicherzustellen, dass die KI in sicherheitskritischen Bereichen keine negativen Auswirkungen auf den Einzelnen oder die Gesellschaft hat.
 

Inakzeptables Risiko:
Diese KI-Systeme stellen eine unmittelbare Bedrohung für die Sicherheit oder die Grundrechte von Personen dar. Dazu gehören beispielsweise:

  • Kognitive Manipulation (z. B. KI, die das Verhalten von Kindern oder anderen besonders schutzbedürftigen Gruppen beeinflusst)
  • Gesichtserkennung in Echtzeit (z. B. für die Überwachung auf öffentlichen Plätzen)
  • Soziale Punktesysteme (z. B. die Bewertung von Menschen basierend auf ihrem Verhalten oder sozioökonomischen Status)

Diese Systeme werden verboten, es sei denn, es gibt spezifische Ausnahmen (z. B. für Strafverfolgungsbehörden in sehr begrenztem Umfang). Der Schutz der Privatsphäre, der Grundrechte und der Freiheit der Menschen ist hier oberste Priorität.
 

Generative KI unterliegt speziellen Transparenzpflichten:

  • Offenlegung: Nutzer müssen darüber informiert werden, dass der Inhalt von einer KI generiert wurde.
  • Urheberrecht: Die KI muss so gestaltet sein, dass sie keine illegalen Inhalte erzeugt.
  • Training: Es muss transparent gemacht werden, welche Daten zum Trainieren der KI verwendet wurden.