23. März 2026Entlastung statt Ersatz

Wichtige Fragen zur Künstlichen Intelligenz im Praxisalltag

Dr. Felix Gamper, Dr. Thomas Müller und Remo Capobianco sind Gründungsmitglieder des Instituts für angewandte Dentronik (IAD). Im Gespräch mit der ZZS erläutern sie, wie Künstliche Intelligenz (KI) den Praxisalltag leichter und übersichtlicher machen kann – mit klaren Regeln, hoher Team-Akzeptanz und verständlicher Kommunikation für Patientinnen und Patienten.

IAD-Team
IAD
Das IAD-Team: Dr. Felix Gamper, Dr. Thomas Müller und Remo Capobianco (von links).

Viele Praxen wollen mit KI anfangen, ohne sich zu verrennen. Was ist ein vernünftiger Einstieg?
Müller: Am besten beginnt man klein und konkret. Ein guter Startpunkt ist die Verbesserung der Patienteninformationen. Etwa indem Aufklärungsblätter oder Behandlungsbeschreibungen mit Unterstützung einer KI klarer und verständlicher formuliert werden. So merkt das Team sofort, ob die neue Arbeitsweise nützt: weniger Rückfragen, mehr Sicherheit im Gespräch, bessere Orientierung für Patientinnen und Patienten.
Wichtig ist, dass Regeln und Rollen schriftlich festgehalten werden, das Team von Anfang an
eingebunden ist und Rückmeldungen ernst genommen werden. Nach einer kurzen Testphase sollte man prüfen: erleichtert es den Alltag oder nicht? Wenn ja, bleibt es. Wenn nein, stoppt man und justiert nach.

Wie erklärt man KI im Team, ohne Angst auszulösen?
Gamper: Entscheidend ist die Haltung: KI ersetzt niemanden, sondern unterstützt. Sie ist ein Werkzeug, das Vorschläge liefert oder Informationen ordnet, aber die Verantwortung bleibt bei der behandelnden Person. Wir sprechen im Team deshalb von «Assistenz», nicht von «Automatisierung». Zusätzlich hilft es, offen auszuprobieren und gemeinsam zu reflektieren, was nützlich ist und was nicht. So entsteht das Gefühl, die Technik zu gestalten, statt von ihr gesteuert zu werden.

Drei Regeln für den Start

Welche Regeln braucht es, bevor man loslegt?
Müller: Drei klare Regeln reichen für den Anfang: Erstens, welche Inhalte dürfen überhaupt eingegeben werden – sensible Daten gehören in der Startphase nicht hinein. Zweitens, wer darf welche Ergebnisse einsehen und nutzen. Drittens, wo werden die Daten gespeichert und wie werden sie gelöscht. Diese Leitplanken sind einfach, schaffen aber Vertrauen, weil jeder weiss, woran er ist.

Wie bleibt die Patientenkommunikation verständlich und fair?
Gamper:
PatientInnen wollen vor allem Klarheit. Deshalb sagen wir in einfacher Sprache, was
die KI tut – etwa dass sie Gespräche zusammenfasst oder Texte glättet – und was sie nicht tut, nämlich Diagnosen stellen. Die Entscheidung liegt immer bei der behandelnden Person. Wer das offen und nachvollziehbar kommuniziert, stärkt Vertrauen und vermeidet Missverständnisse.

Wer haftet?

Was ist mit Haftung und Fehlerkultur?
Gamper: Die Verantwortung bleibt in der Praxis. KI ist eine Hilfe, kein Rechtsersatz. Wichtig ist, einen Fallback einzubauen: Wenn ein Hinweis unklar ist, gilt die eigene klinische Beurteilung. Abweichungen sollten kurz dokumentiert werden, damit das Team daraus lernen kann. Eine offene Fehlerkultur ist entscheidend: Fehlalarme oder Abweichungen sind kein Versagen, sondern Hinweise, wie Systeme verbessert werden können.

Wie erkennt man früh, ob der Einsatz tatsächlich entlastet?
Müller: Entlastung zeigt sich nicht in Statistiken, sondern im Alltag: Der Tagesstart verläuft ruhiger,
Übergaben sind klarer, weniger Rückfragen bremsen den Ablauf. Spürbar wird das auch in kurzen
Teamsitzungen, wenn weniger Detailfragen diskutiert werden müssen und mehr Zeit für inhaltliche
Themen bleibt. Das ist ein gutes Signal, dass sich der Einsatz lohnt.

Woran sollte man sich orientieren: an Technik oder Abläufen?
Müller: Immer an den Abläufen. Technik ist kein Selbstzweck, sondern soll helfen, Arbeitsschritte
zu vereinfachen. Deshalb zuerst die bestehenden Prozesse genau anschauen: Was ist wirklich nötig, was ist Routine, was ist überflüssig? Erst wenn dieser Blick klar ist, entscheidet man, wo eine KI unterstützen kann. Sonst digitalisiert man unnötige Komplexität.

Was ist rechtlich zu beachten?

Wie bleibt man rechtlich auf der sicheren Seite, ohne sich zu blockieren?
Gamper: Mit gesundem Augenmass. Grundregeln sind: keine sensiblen Daten in frei verfügbare
Tools, Zugriffsrechte nach Rollen klar definieren, Daten möglichst in der Schweiz speichern. Diese einfachen Prinzipien reichen oft schon aus, um ein solides Fundament zu haben. Wer unsicher ist, sollte lieber einmal mehr nachfragen und konservativ entscheiden, statt unbedacht Risiken einzugehen.

Was ist mittelfristig realistisch?
Müller: In den nächsten 3-5 Jahren wird KI uns noch stärker im Hintergrund begleiten. Hinweise
werden verständlicher, Dokumentation läuft leichter, kleine Koordinationsaufgaben erledigen sich
fast von allein. Der entscheidende Punkt bleibt: Alles muss erklärbar und unterbrechungsarm sein.
Technik, die das Team aus dem Takt bringt, setzt sich nicht durch.

Wo ziehen wir eine Grenze?
Gamper: Überall dort, wo Vertrauen den Kern ausmacht: Aufklärung, Einwilligung, Therapieentscheid. Hier kann KI Informationen ordnen oder veranschaulichen, aber sie darf niemals anstelle des Menschen sprechen. Diese Grenze ist wichtig, damit das Persönliche und Menschliche nicht verloren geht.

Vielen Dank für die spannenden Einblicke.