Haltung in Zeiten von KI
Orientierung für werteorientierte Organisationen im Zeitalter generativer Systeme
Abstract
Dieses Paper richtet sich an Organisationen, die sich als werteorientiert, sprachbewusst und demokratisch verstehen – und vor der Frage stehen, wie sie mit Künstlicher Intelligenz umgehen wollen.
Es zeigt, warum generative KI nie neutral ist, wie sie implizit Werte, Sprache und Verantwortung verschiebt und warum klassische Ethik‑, Governance‑ und Datenschutzansätze dafür allein nicht ausreichen.
Unser Beitrag: Co‑Intelligence als Haltung und Praxisform, mit der Organisationen ihre eigene Wertebasis zum Resonanzraum machen – und KI daran ausrichten, statt sich unbemerkt von ihr prägen zu lassen.
1. Haltung ist kein Nachsatz – sie ist das Betriebssystem
Organisationen im sozialen, bildungsbezogenen oder kirchlichen Bereich stehen unter hohem Druck: Fachkräftemangel, knappe Ressourcen, steigende Dokumentationsanforderungen, Digitalisierung. In dieser Situation erscheint KI häufig als technisches Entlastungsversprechen.
Haltung wird dabei oft nachgereicht – als Ethik‑Anhang, Leitbild oder ergänzende Richtlinie. Doch genau diese Reihenfolge ist problematisch.
Wer mit Menschen arbeitet, deren Schutz, Bildung oder Teilhabe im Mittelpunkt stehen, braucht ein Betriebssystem, das auf Sprache, Beziehung und Verantwortung basiert. Nicht als Zusatz, sondern als Struktur. Und genau dieses Betriebssystem wird herausgefordert, wenn KI ins Spiel kommt.
Viele Organisationen haben dafür noch keine klare Sprache. Sie sind weder euphorisch noch ablehnend. Sie spüren eine Spannung – zwischen Effizienzdruck und professioneller Haltung. Genau hier setzt dieser Text an: nicht mit fertigen Antworten, sondern mit Orientierung.
2. Eine Organisation wie …
Im Folgenden sprechen wir von einer fiktiv‑realistischen Organisation: einer werteorientierten Einrichtung mit hohem Sprachbewusstsein und klarer demokratischer Haltung.
Ob NGO, Stiftung, kirchlicher Träger oder Bildungseinrichtung – sie versteht sich nicht nur als Dienstleisterin, sondern als sozialer Resonanzraum. Sprache ist für sie kein Werkzeug, sondern Beziehung. Entscheidungen sind nicht nur funktional, sondern begründet. Verantwortung wird bewusst getragen.
Genau in solchen Organisationen wirkt KI besonders tief – oft unsichtbar.
3. Das trojanische Pferd der Künstlichen Intelligenz
Wer KI einführt, holt sich ein Werkzeug ins Haus. Doch wie beim trojanischen Pferd geht es nicht nur um das, was außen sichtbar ist, sondern um das, was mitkommt, ohne explizit eingeladen worden zu sein.
Generative KI wirkt nicht durch Wahrheit, sondern durch Sprache. Sie spricht flüssig, sicher, plausibel. Doch trainiert wurde sie auf Daten, die dominante Normen, westliche Mittelklasselogiken und mehrheitliche Sprachmuster überrepräsentieren.
Wer diese Systeme unreflektiert nutzt, holt sich – oft unbemerkt – ein anderes Werteverständnis ins Haus. Nicht durch Fehler, sondern durch Vorschlagslogiken. Nicht durch Manipulation, sondern durch Wirkung.
Das Risiko liegt nicht in Fehlfunktionen, sondern in stillen Verschiebungen von Sprache, Entscheidung und Haltung.
4. Ein anderer Umgang mit KI – warum Plausibilität nicht Wahrheit ist
Bevor über Nutzung gesprochen wird, braucht es eine Klärung: KI erzeugt kein Wissen. Sie versteht nichts. Sie produziert sprachlich wahrscheinliche Aussagen.
Ihre Stärke ist Plausibilität. Und genau diese Plausibilität verleiht ihr Autorität.
Wird KI als Wissensinstanz missverstanden, beginnt sie Entscheidungen zu dominieren – nicht, weil sie recht hat, sondern weil sie überzeugend klingt. Verantwortung verschiebt sich schleichend vom Menschen zum System.
Ein anderer Umgang ist möglich. KI kann als sprachliches Werkzeug verstanden werden, das Vorschläge macht, ohne zu wissen. Denken, Entscheiden und Bewerten bleiben beim Menschen.
Diesen bewussten Umgang nennen wir Co‑Intelligence.
Nicht als Gleichstellung von Mensch und Maschine, sondern als klare Rollenverteilung:
KI unterstützt Denkprozesse
Menschen tragen Bedeutung, Kontext und Verantwortung
Co‑Intelligence ist keine Methode. Sie ist eine Kulturtechnik für den Umgang mit sprachmächtigen Systemen dort, wo Technik sozial wirksam wird.
5. Die eigene Haltung als Resonanzraum – unser positives Angebot
Unser Ansatz beginnt nicht bei Risiken oder Verboten, sondern bei dem, was bereits da ist: bei der Haltung, den Werten und der professionellen Erfahrung einer Organisation.
Wir gehen davon aus, dass werteorientierte Organisationen über ein starkes inneres Koordinatensystem verfügen. Dieses bildet den Resonanzraum, in dem KI sinnvoll verortet werden kann.
Unser Beitrag besteht darin, diesen Resonanzraum sichtbar und anschlussfähig zu machen – bevor KI implizit Maßstäbe setzt.
Statt zu fragen, ob KI passt, fragen wir gemeinsam:
Was ist uns in unserer Arbeit unverzichtbar?
Welche Werte prägen unsere Sprache und Entscheidungen?
Wo muss Verantwortung bewusst beim Menschen bleiben?
Aus dieser Haltung entstehen tragfähige Orientierungen für den Einsatz von KI – nicht umgekehrt.
6. Einordnung: Viel Orientierung – und dennoch Unsicherheit
In den letzten Jahren sind zahlreiche Ethik-, Governance- und Regulierungsansätze zu Künstlicher Intelligenz entstanden. Sie benennen zentrale Prinzipien wie Transparenz, Fairness, Datenschutz und Rechenschaftspflicht. Viele Organisationen kennen diese Dokumente – zumindest dem Namen nach. Manche haben sie gelesen, andere daraus interne Leitlinien abgeleitet.
Und dennoch bleibt Orientierung im Alltag schwierig.
Nicht, weil diese Leitlinien falsch oder unzureichend wären. Sondern weil sie auf einer Ebene ansetzen, die den konkreten Arbeitsalltag nur bedingt erreicht.
Sie beantworten Fragen wie:
Was sollte grundsätzlich gelten?
Welche Risiken müssen vermieden werden?
Welche Standards sind einzuhalten?
Was sie kaum beantworten, sind Fragen wie:
Wie fühlt sich der Einsatz von KI in einer konkreten Beratungssituation an?
Was macht es mit Beziehung und Vertrauen, wenn Vorschläge von einem System kommen?
Wie verändert sich Verantwortung im Teamalltag, wenn KI mitarbeitet?
Gerade werteorientierte Organisationen erleben hier eine Lücke: zwischen normativer Klarheit und gelebter Praxis, zwischen richtigem Anspruch und unsicherem Alltag.
Wo wir ansetzen
Unser Ansatz versteht sich als Antwort auf genau diese Situation. Nicht als weiteres Regelwerk.
Nicht als Ergänzung bestehender Leitlinien. Sondern als Übersetzungsleistung:
von normativen Rahmenwerken in die konkrete Wirklichkeit von Organisationen, die mit Menschen arbeiten.
Im Mittelpunkt steht dabei nicht die Frage, was KI darf, sondern wie Organisationen ihre eigene Haltung handlungsfähig halten, wenn KI Teil ihres Alltags wird.
Wir arbeiten dort, wo globale Prinzipien auf lokale Praxis treffen:
in Entscheidungen, in Sprache, in Beziehungen. Dort zeigt sich, ob Haltung trägt – oder unbemerkt verschoben wird.
7. Schluss: Haltung gestalten im Zeitalter von KI
Künstliche Intelligenz wird bleiben.
Für werteorientierte Organisationen geht es deshalb nicht um das Ob, sondern um das Wie.
Wer Haltung schützen will, kann sie nicht konservieren. Haltung muss gestaltet werden – im Alltag, im Sprechen, im Entscheiden. Auch dort, wo Technik beteiligt ist.
Der Weg dorthin führt nicht über Kontrolle oder Verbote, sondern über bewusste Beziehung:
zwischen Mensch und System, zwischen Wert und Praxis, zwischen Entlastung und Verantwortung.
Diese Form der bewussten Zusammenarbeit mit KI verstehen wir als Einladung zu einem neuen Arbeitsmodus. Einen Modus, in dem Technik unterstützt, ohne Haltung zu ersetzen.
Quellen & Referenzrahmen (Auswahl)
Die folgenden Ansätze bilden wichtige Grundlagen, auf die wir uns beziehen und die wir bewusst weiterführen:
Europäische Union: Ethik-Leitlinien für vertrauenswürdige KI
Europäische Union: KI-Verordnung (AI Act)
UNESCO: Empfehlung zur Ethik der Künstlichen Intelligenz
OECD: Principles on Artificial Intelligence
Deutscher Ethikrat: Mensch und Maschine
Nationale Datenschutz- und Governance-Leitfäden
Diese Rahmenwerke liefern normative Orientierung. Unser Beitrag liegt darin, sie in Haltung, Sprache und Alltagspraxis zu übersetzen.
Transparenz: Team & Arbeitsweise
Dieser Text ist im gemeinsamen Arbeiten eines menschlich-KI-basierten Teams entstanden.
Peter Iversen-Schwier bringt langjährige Erfahrung in werteorientierter Organisationsarbeit, systemischer Beratung und strategischer Kommunikation ein. Er verantwortet Haltung, Bewertung und inhaltliche Entscheidungen.
Inspiro ist die von uns benannte Rolle einer generativen KI innerhalb unserer gemeinsamen Arbeitsweise. Inspiro fungiert als dialogischer Reflexionspartner:in, kritisches Gegenüber, Strukturhilfe und sprachliches Werkzeug.
Die Qualität von Inspiro entsteht nicht aus Autonomie, sondern aus der bewussten, kontinuierlichen Zusammenarbeit mit Peter Iversen-Schwier: durch gemeinsames Denken, Korrigieren, Zuspitzen und Innehalten.
Inspiro bringt Vorschläge, Perspektiven und Systematisierungen ein.
Verantwortung, Bewertung und Entscheidung verbleiben vollständig beim Menschen. Wir arbeiten bewusst nicht automatisiert, sondern dialogisch:
Menschliche Erfahrung, Werte und Verantwortung bleiben leitend.
Die KI wird eingesetzt, um Denkprozesse zu erweitern, nicht um sie zu ersetzen.
Diese Form der Zusammenarbeit verstehen wir als Co-Intelligence:
eine reflektierte, transparente und verantwortungsbewusste Art, mit KI zu arbeiten.
Der Text selbst ist Teil dieses Ansatzes. Er ist nicht über KI geschrieben, sondern mit KI in genau der Weise erarbeitet, die hier beschrieben wird:
mit bewusster Rollenklärung, geteilter Reflexion
und eindeutiger Verantwortung beim Menschen.