{"id":3090,"date":"2026-01-29T13:20:18","date_gmt":"2026-01-29T12:20:18","guid":{"rendered":"https:\/\/xpand.one\/de\/gmbh\/?p=3090"},"modified":"2026-04-19T14:13:20","modified_gmt":"2026-04-19T12:13:20","slug":"human-centered-ai-ki-im-dienst-des-menschen","status":"publish","type":"post","link":"https:\/\/xpand.one\/de\/gmbh\/human-centered-ai-ki-im-dienst-des-menschen\/","title":{"rendered":"Human-Centered AI: KI im Dienst des Menschen"},"content":{"rendered":"\n<!-- Meta-Description: Menschen-zentrierte K\u00fcnstliche Intelligenz\u2013 das ist keine Floskel, sondern ein strategischer Imperativ. Zugleich ist es auch ein Wettbewerbs- und F\u00fchrungsfaktor: So setzen KMU KI wirksam, sicher und verantwortbar ein \u2013 mit klaren Regeln, hoher Akzeptanz im Team und messbarer Entlastung im Alltag. -->\n\n\n\n<h2>Wenn Maschinen denken, m\u00fcssen Menschen entscheiden<\/h2>\n\n<p>K\u00fcnstliche Intelligenz ver\u00e4ndert unsere Arbeitswelt mit einer Geschwindigkeit, die vielen Organisationen den Atem raubt. Zwischen euphorischen Effizienzversprechen und stiller \u00dcberforderung geht dabei oft verloren, was dringend an erste Stelle geh\u00f6rt: die Frage, f\u00fcr was wir KI einsetzen wollen und auf welche Weise.<\/p>\n\n<p>Human-Centered AI (HCAI) stellt diese Perspektive ins Zentrum. Sie stellt eine unbequeme, aber notwendige Frage: Dient unsere Art, KI zu nutzen, der W\u00fcrde, Kompetenz und Handlungsf\u00e4higkeit von Menschen \u2013 oder gef\u00e4hrdet sie diese?<\/p>\n\n<p>Fei-Fei Li, Mitgr\u00fcnderin des Stanford Institute for Human-Centered AI, formuliert es so: \u201eHuman-Centered AI enhances human dignity, agency, and societal benefit.&#8220; Diese drei Begriffe \u2013 W\u00fcrde, Handlungsf\u00e4higkeit, gesellschaftlicher Nutzen \u2013 werden zum Pr\u00fcfstein f\u00fcr jede KI-Implementierung. Daran werden sich Unternehmen k\u00fcnftig messen lassen m\u00fcssen.<\/p>\n\n<p>Doch was bedeutet das konkret? Und warum ist gerade jetzt der richtige Zeitpunkt, diese Frage nicht nur zu stellen, sondern auch systematisch zu beantworten?<\/p>\n\n<h2>Das Spannungsfeld: Zwischen Tempo und Verantwortung<\/h2>\n\n<p>Die rasante Verbreitung generativer KI-Systeme \u2013 von ChatGPT bis zu dom\u00e4nenspezifischen Assistenten \u2013 ver\u00e4ndert nicht nur Prozesse, sondern auch Macht- und Verantwortungsstrukturen in Organisationen. Drei Spannungsfelder treten dabei immer deutlicher hervor:<\/p>\n\n<p>Erstens: Euphorie trifft auf \u00dcberforderung. W\u00e4hrend einzelne Mitarbeitenden erreichte Effizienzgewinne feiern, f\u00fchlen sich andere von Tools, Begriffen und Erwartungen regelrecht \u00fcberrollt. Die Schere zwischen KI-affinen \u201eEarly Adopters&#8220; und zur\u00fcckhaltenden Mitarbeitenden \u00f6ffnet sich \u2013 und spaltet Belegschaften auf ungesunde Weise.<\/p>\n\n<p>Zweitens: Technologisches Tempo \u00fcberholt organisatorische Reife. Was technisch m\u00f6glich ist, l\u00e4uft oft schneller als Governance, ethische Reflexion und Kompetenzaufbau hinterherkommen. Unternehmen implementieren Systeme, bevor sie verstanden haben, welche Verantwortung damit einhergeht. Welche Daten d\u00fcrfen \u00fcberhaupt genutzt werden?<\/p>\n\n<p>Drittens: Kostenlogik verdr\u00e4ngt menschliche Perspektive. Der Druck, \u201eProduktivit\u00e4t zu heben&#8220;, verf\u00fchrt dazu, Aufgaben prim\u00e4r zu automatisieren \u2013 statt F\u00e4higkeiten zu erweitern. Die Frage \u201eWie viele Jobs k\u00f6nnen wir einsparen?&#8220; dominiert oft die Diskussion, w\u00e4hrend die wichtigere Frage untergeht: \u201eWie k\u00f6nnen wir Menschen bef\u00e4higen, bessere Arbeit zu leisten?&#8220;<\/p>\n\n<p>Diese Entwicklung lie\u00dfe sich um mindestens 3 weitere Punkte erg\u00e4nzen und sie markiert eine fragw\u00fcrdige Tendenz: Sie entgrenzt erstens Arbeit auf gef\u00e4hrliche Weise (weil KI keine Pause braucht, m\u00fcssen es Menschen auch nicht?), entsachlicht zweitens wichtige Fragen des Wirtschaftens im 21. Jahrhundert \u2013 indem alles zur Tool-Frage wird \u2013 und spaltet drittens Organisationen in Gewinner und Verlierer der Transformation.<\/p>\n\n<p>Dies ist kein Appell gegen technologischen Fortschritt. Es ist eine gro\u00dfe Errungenschaft, dass KI monotone T\u00e4tigkeiten \u00fcbernehmen, komplexe Datenmengen strukturieren und neue Perspektiven er\u00f6ffnen kann. Aber der zeitgen\u00f6ssischen KI-Begeisterung geht es oft um etwas anderes, und genau das ist das Problem.<\/p>\n\n<h2>Was Human-Centered AI wirklich bedeutet<\/h2>\n\n<p>Um diesen Trend zu dekonstruieren, m\u00fcssen wir verstehen, was Human-Centered AI tats\u00e4chlich meint \u2013 jenseits von Marketingfolien und wohlklingenden Absichtserkl\u00e4rungen.<\/p>\n\n<h3>Eine Definition als Fundament<\/h3>\n\n<p>Human-Centered AI bezeichnet die Entwicklung k\u00fcnstlicher Intelligenz, die menschliche Bed\u00fcrfnisse, Werte und F\u00e4higkeiten in den Mittelpunkt von Design und Einsatz stellt. Dieser Ansatz stellt sicher, dass KI-Systeme menschliche F\u00e4higkeiten erweitern und das Wohlergehen f\u00f6rdern \u2013 statt menschliche Rollen zu ersetzen oder zu verringern.<\/p>\n\n<p>HCAI adressiert die ethischen, sozialen und kulturellen Implikationen von KI und gew\u00e4hrleistet, dass diese Systeme zug\u00e4nglich, nutzbar und vorteilhaft f\u00fcr alle Teile der Gesellschaft sind. Sie ist eng verbunden mit dem Feld der Mensch-KI-Interaktion, das untersucht, wie Menschen und KI kommunizieren und zusammenarbeiten.<\/p>\n\n<h3>Die regulatorische Realit\u00e4t: HCAI als Rahmenwerk<\/h3>\n\n<p>Human-Centered AI war nie eine Nischenidee, sondern spiegelt sich in zentralen Rahmenwerken wider:<\/p>\n\n<ul>\n<li>Der EU AI Act spricht explizit von \u201ehuman-centric and trustworthy AI&#8220; und macht Transparenz, Nachvollziehbarkeit und menschliche Aufsicht zur Pflicht.<\/li>\n<li>Die OECD AI Principles betonen Fairness, Transparenz und das Wohl des Menschen als Leitprinzip f\u00fcr KI-Entwicklung und -Einsatz.<\/li>\n<li>Das NIST AI Risk Management Framework macht Vertrauen, Kontext und Verantwortlichkeit mess- und steuerbar.<\/li>\n<\/ul>\n\n<p>Im Kern kreisen alle um dieselben Fragen: Wer tr\u00e4gt Verantwortung? Welche Werte leiten Entscheidungen? Wie bleibt der Mensch in Kontrolle \u2013 auch dann, wenn Systeme sehr leistungsf\u00e4hig erscheinen? Auch wir bei xpand haben uns zu Beginn unserer AI-Reise konkret \u00fcberlegt, welche Leitlinien unsere KI-Nutzung und Anwendung beim Kunden f\u00fchren sollen. Dies ist verschriftlicht in unserem Codex: <a href=\"https:\/\/xpandai.one\/code-of-conduct\/\" target=\"_blank\" rel=\"noopener\">https:\/\/xpandai.one\/code-of-conduct\/<\/a><\/p>\n\n<h2>Drei Grundpfeiler der Human-Centered AI<\/h2>\n\n<h3>1. Augmentation statt Automation<\/h3>\n\n<p>Human-Centered AI erweitert menschliche F\u00e4higkeiten, statt sie zu ersetzen. KI wird zum Co-Piloten, nicht zum Autopiloten. Sie verarbeitet gro\u00dfe Informationsmengen, schl\u00e4gt Optionen vor, erstellt Entw\u00fcrfe \u2013 aber: Die Deutung, Priorisierung und finale Entscheidung bleiben beim Menschen.<\/p>\n\n<p>Der \u00d6konom Erik Brynjolfsson warnt eindringlich vor der \u201eTuring Trap&#8220;: Wer KI nur nutzt, um Menschen zu ersetzen, statt ihre F\u00e4higkeiten zu verst\u00e4rken, verschenkt das gr\u00f6\u00dfte Potenzial \u2013 den menschlichen Beitrag. Denn selbst die leistungsf\u00e4higste KI kann eines nicht: den Kontext verstehen, in dem eine Entscheidung wirkt. Die gesellschaftlichen Folgen absch\u00e4tzen. Den Sinn hinter einer Aufgabe erfassen.<\/p>\n\n<h3>2. Vertrauen statt Verblindung<\/h3>\n\n<p>Human-Centered AI verlangt Nachvollziehbarkeit. Entscheidungen m\u00fcssen erkl\u00e4rbar sein. Datenquellen und Trainingslogiken d\u00fcrfen nicht \u201eBlack Box&#8220; bleiben, wo Menschen stark betroffen sind. Fehlerm\u00f6glichkeiten werden bewusst adressiert \u2013 etwa durch menschliche Freigaben, Vier-Augen-Prinzip oder Eskalationsmechanismen.<\/p>\n\n<p>Das ist mehr als eine technische Anforderung. Es ist eine kulturelle: Vertrauen in KI kann nur entstehen, wenn Menschen verstehen, worauf sie sich einlassen \u2013 und wenn sie die M\u00f6glichkeit haben, korrigierend einzugreifen.<\/p>\n\n<h3>3. Werte statt reiner Performance<\/h3>\n\n<p>Performance ist wichtig \u2013 aber nicht das einzige Kriterium. Human-Centered AI integriert Werte direkt ins Design:<\/p>\n\n<ul>\n<li><strong>Fairness:<\/strong> Vermeidung systematischer Benachteiligung durch verzerrte Trainingsdaten oder diskriminierende Muster.<\/li>\n<li><strong>Sicherheit &#038; Datenschutz:<\/strong> Schutz von Menschen und sensiblen Informationen vor Missbrauch oder ungewollter Offenlegung.<\/li>\n<li><strong>Sinnorientierung:<\/strong> Technologie folgt dem Auftrag \u2013 nicht umgekehrt. Die Frage \u201eWarum tun wir das?&#8220; muss vor der Frage \u201eWie bauen wir das?&#8220; beantwortet sein.<\/li>\n<\/ul>\n\n<p>Diese drei Pfeiler sind keine akademische Finger\u00fcbung. Sie sind der Unterschied zwischen KI, die Menschen st\u00e4rkt \u2013 und KI, die sie zombiehaft in den Abgrund zieht.<\/p>\n\n<h2>In der Praxis: Werte als Wegweiser f\u00fcr k\u00fcnstliche Intelligenz am Arbeitsplatz<\/h2>\n\n<p>Aus unseren KI-Formaten mit Kunden aus dem Mittelstand sehen wir best\u00e4tigt, was sich wissenschaftlich bereits gut zeigen l\u00e4sst: Es gibt mehrere Faktoren, die dar\u00fcber entscheiden, ob KI im Unternehmen wirksam wird oder als Tool-Thema verpufft:<\/p>\n\n<p><strong>Erstens: Beteiligung statt Betroffenheit<\/strong><br>\nMenschen, die fr\u00fch eingebunden werden, entwickeln Neugier statt Abwehr. Human-Centered AI entsteht dort, wo Mitarbeitende mitgestalten \u2013 nicht dort, wo KI \u201e\u00fcber sie hinweg&#8220; eingef\u00fchrt wird.<\/p>\n\n<p><strong>Zweitens: Transparenz statt Blackbox<\/strong><br>\nWof\u00fcr nutzen wir KI \u2013 wof\u00fcr nicht? Welche Daten sind erlaubt? Was passiert mit Ergebnissen? Je klarer Zweck, Grenzen und Arbeitsweise erkl\u00e4rt sind, desto eher entsteht Vertrauen und saubere Nutzung.<\/p>\n\n<p><strong>Drittens: Leitplanken statt Grauzonen<\/strong><br>\nHuman-Centered AI braucht einfache, praxistaugliche Regeln: Datenklassen, Freigaben, Do\/Don&#8217;t, Review-Pflichten, Eskalationswege. Ohne Leitplanken kippt KI-Nutzung in Wildwuchs oder Stillstand.<\/p>\n\n<p><strong>Viertens: Verantwortung statt Diffusion<\/strong><br>\n\u201eWer hilft? Wer entscheidet? Wer darf was?&#8220; Human-Centered AI wird praktisch, wenn Rollen klar sind: fachliche Verantwortung, Tool-\/IT-Verantwortung, Datenschutz\/Compliance, und eine menschliche Anlaufstelle f\u00fcr den Alltag.<\/p>\n\n<p><strong>F\u00fcnftens: Entlastung statt Zusatzlast<\/strong><br>\nMenschenzentrierte KI misst sich daran, ob sie Arbeit erleichtert: weniger Copy-Paste, weniger Suchaufwand, bessere Vorarbeit, weniger R\u00fcckfragen. Wenn KI nur obendrauf kommt, ist sie nicht human-centered \u2013 sondern stress-centered.<\/p>\n\n<p><strong>Sechstens: Kompetenzaufbau statt Einmal-Schulung<\/strong><br>\nHuman-Centered bedeutet: Menschen bef\u00e4higen, nicht abh\u00e4ngen. Lernen muss als Routine funktionieren (kurze \u00dcbungen, Office Hours, Peer-Austausch), damit Sicherheit und Qualit\u00e4t wachsen \u2013 statt Einzelwissen und Unsicherheit.<\/p>\n\n<p><strong>Siebtens: Qualit\u00e4tssicherung statt blindes Vertrauen<\/strong><br>\nHuman-Centered AI hei\u00dft: Mensch bleibt verantwortlich. Klare Review-Standards, Quellenpr\u00fcfung, Bias-\/Fehlerbewusstsein und definierte \u201eHuman-in-the-loop&#8220;-Punkte sch\u00fctzen Qualit\u00e4t und Vertrauen.<\/p>\n\n<p><strong>Achtens: Kommunikation auf Augenh\u00f6he statt Tech-Sprache<\/strong><br>\nErfolgreiche Human-Centered AI erkl\u00e4rt KI so, dass Teams sie wirklich nutzen k\u00f6nnen: verst\u00e4ndliche Beispiele, konkrete Szenarien, klare Sprache, keine Tool-Show \u2013 damit Menschen sich sicher f\u00fchlen und handlungsf\u00e4hig werden.<\/p>\n\n<h2>Das m\u00f6chten wir Ihnen mitgeben: Konkrete Schritte f\u00fcr F\u00fchrungskr\u00e4fte und Organisationen<\/h2>\n\n<p>Diese Fragen k\u00f6nnen als Checkliste in Projekten dienen \u2013 oder als Gespr\u00e4chsrahmen im F\u00fchrungskreis:<\/p>\n\n<h3>F\u00fcnf Leitfragen f\u00fcr Ihren KI-Einsatz<\/h3>\n\n<ol>\n<li><strong>Welchem menschlichen Zweck dient diese Anwendung?<\/strong><br>\nGeht es um Entlastung, bessere Entscheidungen, mehr Transparenz \u2013 oder vor allem um Kostensenkung?<\/li>\n<li><strong>Wer beh\u00e4lt die Verantwortung?<\/strong><br>\nIst klar definiert, wer kritische Entscheidungen trifft \u2013 und wer f\u00fcr Fehler einsteht?<\/li>\n<li><strong>Wie werden Betroffene beteiligt?<\/strong><br>\nHaben Mitarbeitende die M\u00f6glichkeit, Fragen zu stellen, Feedback zu geben und den Prozess mitzugestalten?<\/li>\n<li><strong>Welche Werte sind ber\u00fchrt \u2013 und wie sichern wir sie?<\/strong><br>\nZum Beispiel: Fairness, Datenschutz, Transparenz, Nachhaltigkeit.<\/li>\n<li><strong>Wie lernen wir systematisch dazu?<\/strong><br>\nGibt es Routinen, um Erfahrungen zu reflektieren, KI-Einsatz zu justieren und den Reifegrad zu erh\u00f6hen?<\/li>\n<\/ol>\n\n<h2>So k\u00f6nnen Sie mit xpand auf Ihre wertorientierte KI-Reise starten:<\/h2>\n\n<p><strong>1. KI-Reifegrad und Anwendungsf\u00e4lle kl\u00e4ren<\/strong><br>\nIn Workshops identifizieren wir mit Teams konkrete, sinnvolle KI-Anwendungen, bewerten Risiken und Nutzen und \u00fcbersetzen sie in eine Roadmap. Den ersten \u00dcberblick k\u00f6nnen Sie sich mit dem leistungsstarken xpandAI Maturity Test holen \u2013 Sie werden \u00fcberrascht sein, welch tiefe Erkenntnisse dabei entstehen! <a href=\"https:\/\/maturity.xpandai.one\/\" target=\"_blank\" rel=\"noopener\">https:\/\/maturity.xpandai.one\/<\/a><\/p>\n\n<p><strong>2. Leitplanken definieren \u2013 etwa mit einem KI-Entscheidungsbaum<\/strong><br>\nEin Entscheidungsbaum f\u00fcr F\u00fchrungskr\u00e4fte schafft Klarheit, welche KI f\u00fcr welche Aufgabe geeignet ist und wo Grenzen liegen \u2013 ein wirksames Instrument, um Chancen und Verantwortung auszubalancieren. Den k\u00f6nnen wir gemeinsam in einem 3h Workshop erarbeiten.<\/p>\n\n<p><strong>3. Wertebasierten KI-Verhaltenskodex etablieren<\/strong><br>\nOrganisationen formulieren eigene Prinzipien, die zu ihrer Kultur passen \u2013 und \u00fcbersetzen diese in Prozesse, Schulungen und Kommunikation. Dies machen wir gern bei einem ersten Kick-off direkt zu Beginn mit Ihnen gemeinsam \u2013 so profitiert der gesamte Changeprozess von Klarheit und Sicherheit.<\/p>\n\n<p><strong>4. Lassen Sie uns mal pers\u00f6nlich sprechen.<\/strong><br>\nM\u00f6chten Sie uns von ihren Fragen rund um KI bei Ihnen im Unternehmen berichten? Oder vielleicht nach dem n\u00e4chsten, logischen Schritt fragen? Oder haben Sie Sorgen wie sich der EU AI Act auswirken k\u00f6nnte bei Ihnen? Ich stehe gern zur Verf\u00fcgung und freue mich ehrlich \u00fcber Ihre Kontaktaufnahme via Telefon oder Mail. Ich antworte pers\u00f6nlich \u2013 wir haben uns gegen einen KI Bot am Telefon oder in Mails und f\u00fcr menschliche W\u00e4rme entscheiden<\/p>\n\n<p>Zum Abschluss ein Wort von Papst Franziskus. Er formulierte beim G7-Gipfel 2024: \u201eDie Frage ist nicht, was Maschinen k\u00f6nnen, sondern was Menschen d\u00fcrfen, wenn sie solche Maschinen erschaffen.&#8220;<\/p>\n\n<p>Human-Centered AI nimmt diese Perspektive ernst. Sie ist weniger eine technische, sondern vor allem eine moralische und kulturelle Innovation. Sie fragt, wie wir Fortschritt gestalten, ohne Menschlichkeit zu verlieren \u2013 in F\u00fchrung, Zusammenarbeit und Gesellschaft.<\/p>\n\n<p>F\u00fcr Organisationen bedeutet das: Human-Centered AI ist kein kurzfristiger Trend, sondern der n\u00e4chste logische Schritt einer wertebasierten Wirtschaft. Technologie ver\u00e4ndert, wie wir arbeiten. Aber wir entscheiden, warum wir sie nutzen \u2013 und welche Grenzen wir ziehen.<\/p>\n\n<p>Und genau dort beginnt gute F\u00fchrung im digitalen Zeitalter.<\/p>\n\n<h2>Quellen:<\/h2>\n\n<p>\u00b9 Fei-Fei Li: \u201eHuman-Centered AI: Enhancing Human Dignity and Societal Benefit&#8220;, Stanford HAI, 2019<br>\n\u00b2 Erik Brynjolfsson: \u201eThe Turing Trap: The Promise &#038; Peril of Human-Like Artificial Intelligence&#8220;, MIT, 2022<br>\n\u00b3 EU AI Act, Artikel 4, 2024<br>\n\u2074 OECD AI Principles, 2019<br>\n\u2075 NIST AI Risk Management Framework, 2023<\/p>\n\n<!-- WordPress-Schlagworte: Human-Centered AI, KI Training in Unternehmen, verantwortungsvoller KI-Einsatz, KI und F\u00fchrung im Mittelstand -->\n\n","protected":false},"excerpt":{"rendered":"<p>Wenn Maschinen denken, m\u00fcssen Menschen entscheiden K\u00fcnstliche Intelligenz ver\u00e4ndert unsere Arbeitswelt mit einer Geschwindigkeit, die vielen Organisationen den Atem raubt. Zwischen euphorischen Effizienzversprechen und stiller \u00dcberforderung geht dabei oft verloren, was dringend an erste Stelle geh\u00f6rt: die Frage, f\u00fcr was wir KI einsetzen wollen und auf welche Weise. Human-Centered AI (HCAI) stellt diese Perspektive ins Zentrum. Sie stellt eine unbequeme,&hellip;<\/p>\n","protected":false},"author":1,"featured_media":3094,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_uag_custom_page_level_css":"","footnotes":""},"categories":[1],"tags":[68,69,79,81,153],"class_list":["post-3090","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-organisations-entwicklung","tag-kuenstliche-intelligenz","tag-verantwortung","tag-unternehmenskultur","tag-fuehrung","tag-human-centered-ai"],"acf":[],"uagb_featured_image_src":{"full":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-scaled.png",2560,1429,false],"thumbnail":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-150x150.png",150,150,true],"medium":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-300x167.png",300,167,true],"medium_large":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-768x429.png",768,429,true],"large":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-1024x572.png",1024,572,true],"1536x1536":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-1536x857.png",1536,857,true],"2048x2048":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-2048x1143.png",2048,1143,true],"gform-image-choice-sm":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-scaled.png",300,167,false],"gform-image-choice-md":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-scaled.png",400,223,false],"gform-image-choice-lg":["https:\/\/xpand.one\/de\/gmbh\/wp-content\/uploads\/humen-centered-ai-scaled.png",600,335,false]},"uagb_author_info":{"display_name":"8ideen","author_link":"https:\/\/xpand.one\/de\/gmbh\/author\/8ideen\/"},"uagb_comment_info":0,"uagb_excerpt":"Wenn Maschinen denken, m\u00fcssen Menschen entscheiden K\u00fcnstliche Intelligenz ver\u00e4ndert unsere Arbeitswelt mit einer Geschwindigkeit, die vielen Organisationen den Atem raubt. Zwischen euphorischen Effizienzversprechen und stiller \u00dcberforderung geht dabei oft verloren, was dringend an erste Stelle geh\u00f6rt: die Frage, f\u00fcr was wir KI einsetzen wollen und auf welche Weise. Human-Centered AI (HCAI) stellt diese Perspektive ins&hellip;","_links":{"self":[{"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/posts\/3090","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/comments?post=3090"}],"version-history":[{"count":7,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/posts\/3090\/revisions"}],"predecessor-version":[{"id":3100,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/posts\/3090\/revisions\/3100"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/media\/3094"}],"wp:attachment":[{"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/media?parent=3090"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/categories?post=3090"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/xpand.one\/de\/gmbh\/wp-json\/wp\/v2\/tags?post=3090"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}