Die Einführung des EU AI Act markiert einen bedeutenden Meilenstein in der Regulierung von künstlicher Intelligenz (KI) in Europa. Als einer der ersten umfassenden Regelwerke weltweit, das die Nutzung und Entwicklung von KI reguliert, zielt dieses Gesetz darauf ab, Innovationen zu fördern und gleichzeitig Risiken für Bürger und Unternehmen zu minimieren. Für Unternehmen ist es entscheidend, die Auswirkungen und Anforderungen des EU AI Act zu verstehen.
Im Sinne des Art. 2 des EU AI Act, ist virtualQ als
„Produkthersteller, die ein KI-System zusammen mit ihrem Produkt und unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringen oder in Betrieb nehmen“
einzustufen.
Als Hersteller tragen wir Verantwortung für die Konformität und Sicherheit unserer Software und achten darauf, alle relevanten Vorschriften einzuhalten.
Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenWas ist das EU AI Act?
Das EU AI Act kategorisiert KI-Anwendungen und -Systeme in vier Stufen, um eine effektive und sichere Nutzung zu gewährleisten:
- Unvertretbares Risiko: Anwendungen, die ein inakzeptables Risiko darstellen, wie beispielsweise staatlich betriebene soziale Scoring-Systeme. Diese sind streng verboten, um die Grundrechte zu schützen.
- Hohes Risiko: Solche Anwendungen sind mit strengen gesetzlichen Anforderungen verbunden. Dazu gehören Tools wie Lebenslaufprüfungssysteme für Bewerbungsverfahren. Unternehmen müssen umfassende Sicherheits- und Überwachungsmaßnahmen implementieren.
- Begrenztes Risiko: Anwendungen, die ein begrenztes Risiko bergen, unterliegen Transparenzverpflichtungen. Dies erfordert, dass Nutzer informiert werden, wenn sie mit einem KI-System interagieren, um Vertrauen und Verantwortlichkeit zu fördern.
- Minimales Risiko: Diese Anwendungen, die weder ausdrücklich verboten noch als hoch oder begrenzt risikoreich klassifiziert werden, sind weitgehend unreguliert. Sie bieten Flexibilität in der Nutzung, während sie die ethischen Standards des EU AI Act beachten.
Uneingeschränkte Nutzung unserer Software
Laut dem Compliance Checker fällt unsere Software außerhalb des Geltungsbereichs des EU AI Act und unterliegt damit keinen rechtlichen Einschränkungen. Dies bedeutet, dass unsere Kunden die Freiheit haben, sie ohne zusätzliche regulatorische Hürden zu nutzen.
Führen Sie selbst den Check durch: https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
Vertrauen Sie darauf, dass unsere Software Ihre Prozesse effizient unterstützt, während wir gleichzeitig die Einhaltung aller geltenden Vorschriften sicherstellen.
Risiko Bias: virtualQ ist nicht von Verzerrungen gefährdet
Bias (Vorurteile oder Verzerrungen) in der künstlichen Intelligenz ist ein bedeutendes Thema, das im EU AI Act ausführlich behandelt wird, um Fairness und Transparenz zu fördern. Wir möchten an dieser Stelle betonen, dass unsere Software und die zugrunde liegenden Daten nicht von dem Problem des Bias betroffen sind.
Unser Engagement für Transparenz und Ethik, auch außerhalb des Geltungsbereichs
Obwohl unsere Software nicht unter den Geltungsbereich des EU AI Acts fällt, setzen wir uns dennoch für höchste Standards in Bezug auf Ethik und Transparenz ein. Wir folgen dem Prinzip „Human-in-the-Loop“, um sicherzustellen, dass menschliches Urteilsvermögen in kritische Entscheidungsprozesse integriert bleibt. Darüber hinaus informieren wir unsere Nutzer klar über die Daten, die wir sammeln, um Vertrauen und Verantwortlichkeit zu fördern.
Unser Head of Engineering Ralph Winzinger ist zertifizierter „Machine Learning Specialist“. Mit ihm arbeiten weitere zertifizierte Spezialisten bei uns im Haus, die so als Team gewährleisten, dass unsere KI-Entwicklung best practices einhält und kontinuierlich verbessert wird. So schaffen wir eine verantwortungsvolle Grundlage für den Einsatz unserer Technologie.
Übernahme des EU-Verhaltenskodex: Unser Engagement für verantwortungsvolle KI
In Übereinstimmung mit den Empfehlungen der EU haben wir uns entschieden, den Verhaltenskodex für vertrauensvolle KI zu übernehmen, sobald er verfügbar ist (https://artificialintelligenceact.eu/de/article/95/).
Dieser Kodex orientiert sich an drei zentralen Punkten, die von der EU hervorgehoben werden, um sicherzustellen, dass unsere KI-Technologien verantwortungsbewusst und im Einklang mit ethischen Standards eingesetzt werden.
- Ethische Richtlinien für vertrauenswürdige KI
- Minimierung der Auswirkungen von KI auf die ökologische Nachhaltigkeit – leichtgewichtige Verarbeitung während der Inferenz; Modelltraining nur bei Bedarf
- Förderung der KI-Kompetenz bei unseren Mitarbeitern, die sich mit der Entwicklung, dem Betrieb und der Nutzung von KI befassen, sowie die Thematisierung in unseren All-Hands-Meetings
Damit möchten wir nicht nur das Vertrauen unserer Nutzer stärken, sondern auch aktiv zur Schaffung einer fairen und transparenten KI-Landschaft beitragen.
EU AI Act im Contact Center: Verantwortung und Compliance trotz "Out-of-Scope"
Der EU AI Act reguliert den Einsatz von KI und teilt Anwendungen in vier Risikostufen ein, um Innovationen zu fördern und gleichzeitig Risiken zu minimieren. Obwohl unsere Software gemäß dem Compliance Checker außerhalb des Geltungsbereichs liegt, setzen wir auf freiwillige Einhaltung der höchsten ethischen Standards.
Mit zertifizierten Machine Learning Specialists im Team, transparenten Datenpraktiken und dem Prinzip „Human-in-the-Loop“ stellen wir sicher, dass unsere Software frei von Bias ist. Zudem haben wir uns entschieden, den Verhaltenskodex für vertrauensvolle KI zu übernehmen, sobald er verfügbar ist. Damit werden wir die verantwortungsbewusste und nachhaltige Nutzung von KI weiter fördern.