Warum wir über KI sprechen

Künstliche Intelligenz ist längst kein Zukunftsthema mehr.
Sie ist da. In unseren Texten, in unseren Denkprozessen, in ersten Entwürfen, in schnellen Antworten.

Und vielleicht kennst Du das auch:
Diese Mischung aus Faszination und Skepsis.
Aus „Das ist wirklich hilfreich“ und gleichzeitig „Irgendetwas daran fühlt sich zu einfach an“.

Wir bewegen uns genau in diesem Spannungsfeld.

Nicht als Technik-Enthusiast:innen.
Und auch nicht als Kulturpessimist:innen.

Sondern als Menschen, die mit Menschen arbeiten.

Unsere Haltung

Für uns ist KI ein Werkzeug.
Ein leistungsfähiges, faszinierendes – und gleichzeitig ein sehr begrenztes.

Denn bei aller sprachlichen Brillanz gilt:

  • GenAI versteht Sprache – aber nicht die Welt. Sie erkennt Muster in Texten, hat jedoch kein eigenes Erleben oder Verständnis.
  • GenAI generiert – sie recherchiert nicht automatisch. Die Antworten entstehen aus Wahrscheinlichkeiten im Modell, nicht aus einer aktiven Internetrecherche.
  • GenAI formuliert überzeugend – auch wenn Inhalte falsch sein können. Deshalb bleiben Prüfung und Einordnung immer menschliche Aufgabe.
  • GenAI hat keine Meinung. Sie kombiniert Perspektiven aus Trainingsdaten, ohne eigene Haltung.
  • GenAI denkt nicht – sie berechnet. Was wie Denken wirkt, ist statistische Musterverarbeitung.
  • GenAI ist ein Sparringspartner – kein Entscheider. Sie kann Perspektiven erweitern, aber Entscheidungen bleiben menschliche Verantwortung.
  • GenAI ist ein Werkzeug. Der Wert entsteht durch die Kompetenz der Person, die es nutzt. Ohne menschliche Einordnung bleibt das Ergebnis nur ein generierter Text.
  • GenAI kann inspirieren – aber nicht fühlen. Empathie, Beziehung und Resonanz bleiben menschliche Qualitäten.
  • GenAI produziert Text – Bedeutung entsteht im Menschen. Die Bedeutung entsteht erst durch menschliche Wahrnehmung und Interpretation.

Unsere Arbeit basiert auf Beziehung, Resonanz und einem tiefen Verständnis für menschliche Komplexität.
Und genau dort hat KI klare Grenzen.

Unsere Leitlinien für den Einsatz von KI bei syspo excellence

1. KI unterstützt – Verantwortung bleibt menschlich

KI unterstützt Analyse, Strukturierung sowie Vor- und Nachbereitung von Beratungsprozessen. Die Verantwortung für Bewertungen, Entscheidungen und Interventionen bleibt immer bei uns Berater:innen. Der Einsatz von KI wird als gemeinsamer Lernprozess verstanden: Erfahrungen werden reflektiert und der Umgang mit KI im Team kontinuierlich weiterentwickelt.


2. Beziehung und Resonanz bleiben zentral

Beratung basiert auf Vertrauen, Beziehung und Resonanz. KI kann diese Prozesse unterstützen, aber nicht ersetzen. Persönliche, vertrauliche oder konfliktbelastete Themen werden nicht an KI delegiert.


3. KI wird für Strukturierung, Perspektivenvielfalt und Reflexion genutzt

Wir nutzen KI, um Informationen zu ordnen, Varianten zu erzeugen und Komplexität handhabbarer zu machen. KI kann neue Fragen, Hypothesen und Sichtweisen generieren und als Sparringspartner im eigenen Denkprozess dienen.


4. KI kann Lern- und Veränderungsprozesse unterstützen

KI kann Praxisübungen, Reflexionsimpulse und Transferanregungen generieren und damit Lern- und Veränderungsprozesse unterstützen. Dabei nutzen wir unser systemisches und hypnosystemisches Kontextwissen in der Gestaltung von Chats, Prompts und GPTs.


5. KI schafft Raum für die eigentliche Beratungsarbeit

KI kann erste Entwürfe, Zusammenfassungen oder Strukturierungen generieren (z. B. für Materialien, Konzeptentwürfen, Dokumentationen). Dadurch entsteht mehr Raum für Beziehungsgestaltung, Prozessarbeit und Reflexion.


6. Transparenz über den Einsatz von KI

Der Einsatz von KI in Arbeitsprozessen wird intern transparent gemacht und – wenn relevant – auch gegenüber Kunden offengelegt. Für Social-Media-Inhalte nutzen wir transparente und kreative Kennzeichnungen für KI-unterstützte Inhalte.


7. Schutz von Daten und Vertraulichkeit

Der Einsatz von KI erfolgt unter Einhaltung von Datenschutz und Vertraulichkeit, insbesondere im Sinne der DSGVO.


8. Vermeidung von Diskriminierung und Missbrauch

KI-generierte Inhalte und Bilder werden darauf geprüft, dass sie keine diskriminierenden, diffamierenden oder verzerrenden Aussagen enthalten. KI wird nicht verwendet, um reale Personen täuschend echt darzustellen oder Inhalte zu erzeugen, die eine falsche Realität suggerieren.

Wie wir Transparenz sichtbar machen

Vielleicht hast Du Dich beim Lesen unserer Inhalte schon gefragt:
„Ist das jetzt von Menschen geschrieben – oder von KI?“

Unsere Antwort:
Beides. Und genau das machen wir sichtbar.

Wir kennzeichnen Inhalte, die im Austausch mit KI entstanden sind, bewusst und transparent.
Nicht, weil wir es müssten.
Sondern weil wir es für richtig halten.

Zum Beispiel so:

  • „Entstanden im Dialog zwischen uns und unserem GPT „Mika“.“
  • „Unsere Gedanken – entwickelt in #CoCreation mit „Mika“.“
  • „Fachlich fundiert von uns. Sprachlich geschärft im Dialog mit Mika.“
  • „Co-kreiert mit unserem GPT „Mika“ – inhaltlich getragen von uns.“
  • „Ein Text aus unserem Zusammenspiel: Erfahrung von uns, Struktur durch GenAI.“

Diese Labels sind mehr als ein Hinweis. Sie sind Ausdruck unserer Haltung:

Verantwortung bleibt bei uns.
Inhalte entstehen im Dialog.
KI ist Teil unseres Prozesses – nicht dessen Ersatz.

Das ist Mika, unsere Contentmanagerin.

Unsere GPTs erstellen wir mit Photo und Namen. Das macht es uns einfacher mit Ihnen in den Dialog zu treten und Themen gemeinsam zu entwickeln.

Und was bedeutet das für Dich?

Vielleicht nutzt Du selbst bereits KI.
Vielleicht bist Du neugierig.
Vielleicht auch skeptisch.

Aus unserer Sicht ist nicht die entscheidende Frage, ob wir KI nutzen.
Sondern wie bewusst wir es tun.

Denn eines bleibt – bei aller technologischen Entwicklung:

Veränderung entsteht nicht durch gute Texte.
Sondern durch gute Gespräche.
Durch echte Begegnung.
Durch Resonanz.

Und genau dort beginnt unsere eigentliche Arbeit.

„Je stärker Technologie in unser Leben eindringt, desto wichtiger werden echte Gespräche, Präsenz und menschliche Beziehung.“
Sherry Turkle, US-amerikanische Soziologin, Psychologin und Professorin am MIT