Praxismanagement 26.03.2026

Keinerlei Intelligenz? „Sorry, das war die KI“



Wer blauäugig KI-Lösungen verwendet, sei es im Privaten wie Beruflichem, ohne Sorgfalt und Gegenprüfung, verfehlt das Ziel. Denn, was so glatt und in Sekundenschnelle daherkommt, trägt immer auch die Wahrscheinlichkeit von Fehlern in sich.

Keinerlei Intelligenz? „Sorry, das war die KI“

Foto: zephyr – stock.adobe.com; Generiert mit KI

Deshalb braucht es User, die KI als durchaus nützliches, situationsabhängiges Tool, aber eben auf keinen Fall als Allerheilmittel betrachten. Wer aber übernimmt die Verantwortung, wenn fehlerhafte KI-Inhalte verwendet oder mit der KI falsch umgegangen wurde? Einfach nur die Schuld an die KI zurückzuspielen, funktioniert nicht. Vor allem nicht im Arbeitsumfeld. Was Arbeitgeber und Arbeitnehmer spätestens jetzt, da KI-Lösungen zum Tagessgeschäft gehören, im Blick haben sollten, erläutert Rechtsanwalt Prof. Dr. Michael Fuhlrott.

Arbeitgeberseitige To dos

Arbeitgeber sollten ihren Mitarbeitenden zunächst deutlich machen, dass KI-Systeme wie ChatGPT lediglich unterstützende Werkzeuge sind. Sie können die tägliche Arbeit erleichtern, ersetzen jedoch nicht die fachliche Prüfung oder die Verantwortung derjenigen, die mit den Ergebnissen arbeiten. Inhalte, die von einer KI erstellt oder recherchiert wurden, müssen daher vor der Weiterverwendung sorgfältig überprüft werden.

Gerade in einer Zahnarztpraxis kann KI beispielsweise beim Formulieren von Patienteninformationen, bei organisatorischen Aufgaben oder bei Marketingtexten unterstützen. Trotzdem bleibt es Aufgabe der Praxis, sicherzustellen, dass medizinische Aussagen korrekt, verständlich und rechtlich unbedenklich sind. Eine kurze interne Leitlinie kann hier Orientierung geben.

Zu solchen Regeln gehört vor allem die Festlegung, welche KI-Programme überhaupt genutzt werden dürfen und in welchen Situationen ihr Einsatz sinnvoll ist. Ebenso wichtig ist der Umgang mit Daten. Personenbezogene Informationen von Patienten oder interne Praxisdaten sollten grundsätzlich nicht in frei zugängliche KI-Dienste eingegeben werden, weil dabei Risiken für Datenschutz und Geschäftsgeheimnisse entstehen können. Verstöße können erhebliche Folgen haben, etwa Schadensersatzforderungen oder Bußgelder der Datenschutzbehörden.

Ein weiterer zentraler Punkt ist die Qualifizierung der Mitarbeitenden. Wer mit KI arbeitet, sollte verstehen, wie diese Systeme funktionieren und wo ihre Grenzen liegen. Arbeitgeber sind deshalb gut beraten, kurze Schulungen oder Leitfäden anzubieten. Ziel ist nicht, den Einsatz von KI zu verhindern, sondern ihn so zu gestalten, dass die Vorteile genutzt werden können, ohne unnötige Risiken für die Praxis einzugehen.

Arbeitnehmerseitige To dos

Beschäftigte sollten KI-Programme als praktisches Hilfsmittel betrachten, vergleichbar mit einer Suchmaschine, einem Übersetzungsprogramm oder einer Software zur Textverarbeitung. Die Verantwortung für das Arbeitsergebnis bleibt jedoch immer bei der Person, die das Ergebnis verwendet oder weitergibt.

Deshalb ist es wichtig, KI-Inhalte kritisch zu prüfen. Gerade bei Zahlen, Quellen oder fachlichen Aussagen können Fehler auftreten. Manchmal erzeugen KI-Systeme auch scheinbar plausible Informationen, die tatsächlich nicht existieren. Wer solche Inhalte ungeprüft übernimmt, riskiert falsche Aussagen oder Missverständnisse.

Im Praxisalltag einer Zahnarztpraxis kann KI etwa beim Entwurf von Informationsmaterial für Patienten oder bei organisatorischen Texten hilfreich sein. Dennoch sollte eine fachkundige Person jede Veröffentlichung oder Weitergabe kontrollieren. Medizinische Aussagen müssen korrekt sein und dürfen keine falschen Erwartungen wecken.

Darüber hinaus sollten Mitarbeitende die internen Regeln der Praxis zum Umgang mit KI genau beachten. Diese Vorgaben legen fest, welche Anwendungen erlaubt sind und welche Daten nicht verarbeitet werden dürfen. Wer sich daran hält und KI bewusst als Unterstützung nutzt, kann von den Möglichkeiten profitieren, ohne rechtliche oder organisatorische Probleme zu verursachen.

Wer haftet bei Fehlern?

Wenn durch den Einsatz von KI ein Fehler entsteht, richtet sich die Haftung zunächst häufig gegen das Unternehmen. Nach außen handeln Beschäftigte in der Regel im Namen ihres Arbeitgebers, sodass Fehler rechtlich der Praxis zugerechnet werden können. Das bedeutet: Wird beispielsweise eine falsche Information veröffentlicht oder werden sensible Daten unzulässig verarbeitet, kann zunächst die Praxis selbst in Anspruch genommen werden.

Innerhalb des Unternehmens wird anschließend geprüft, ob und in welchem Umfang der Mitarbeiter oder die Mitarbeiterin für den entstandenen Schaden verantwortlich ist. Dabei kommt es immer auf den konkreten Einzelfall an. Arbeitsgerichte unterscheiden typischerweise zwischen leichter, mittlerer und grober Fahrlässigkeit.

Bei einem einfachen Versehen, etwa, wenn ein Fehler trotz sorgfältiger Kontrolle übersehen wird, bleibt es häufig bei einer Ermahnung, und der Arbeitgeber trägt den Schaden. Liegt hingegen eine mittlere Fahrlässigkeit vor, kann der Schaden zwischen Arbeitgeber und Arbeitnehmer aufgeteilt werden.

Deutlich ernster wird die Situation, wenn KI-Ergebnisse bewusst oder wiederholt ungeprüft übernommen werden. In solchen Fällen kann grobe Fahrlässigkeit vorliegen, was arbeitsrechtliche Maßnahmen bis hin zur Kündigung nach sich ziehen kann. Gleichzeitig spielt auch die Organisation der Arbeit eine Rolle: Fehlen klare Regeln oder ausreichende Schulungen zum Umgang mit KI, kann sich die Verantwortung stärker zum Arbeitgeber verlagern.

Fazit

Eine spezielle Haftungsregel nur für KI existiert derzeit nicht. Entscheidend bleiben daher immer die konkrete Situation und die Frage, ob sowohl Arbeitgeber als auch Beschäftigte ihre jeweiligen Sorgfaltspflichten eingehalten haben.

Hier gehts zur ZEIT-Analyse „Fehler durch künstliche Intelligenz: Wer haftet, wenn man mit KI Fehler macht?“ von Benjamin Emonts, ZEIT online, 5. März 2026.

Mehr News aus Praxismanagement

ePaper