User
Write something
KI Q&A is happening in 5 days
Pinned
Willkommen! ✅✅✅ Stellt Euch hier gerne hier vor 🎉
Stellt euch doch kurz vor: - Wer seid ihr und was macht ihr beruflich? - Wie nutzt ihr KI schon jetzt im Alltag oder Job? - Was wollt ihr mit KI erreichen – wo soll die Reise hingehen? Keine Romane nötig – ein paar Sätze reichen völlig! Ich fang mal an: Ich bin Jörg, Journalist, Autor, Speaker und KI-Experte. Ich nutze KI täglich Dutzende Male für Content-Erstellung, Recherche, Alltagsaufgaben und um komplexe Themen verständlich zu machen, auch visuell. Mein Ziel: Euch zeigen, wie ihr KI wirklich nutzbringend einsetzt – ohne Blabla, sondern praktisch. Jetzt seid ihr dran! 👇 Bin gespannt, wen wir hier alles an Bord haben. Los geht's! Wiederholen
Willkommen! ✅✅✅ Stellt Euch hier gerne hier vor 🎉
KI als Seelentröster – was können Chatbots wirklich?
Ab heute (01.04.2026) sinken die Honorare für Psychotherapeuten um rund 4,5 Prozent. Gleichzeitig warten Menschen in Deutschland drei bis sechs Monate auf einen Therapieplatz. Kein Wunder, dass immer mehr Leute ihre Sorgen einem Chatbot erzählen. Die DAK-Studie des UKE Hamburg zeigt: Schon jeder zehnte Jugendliche nutzt Chatbots, um über vertrauliche Dinge zu sprechen. Bei Jugendlichen mit depressiven Symptomen sogar jeder Dritte. Funktioniert das? Eine Dartmouth-Studie (veröffentlicht im NEJM AI) hat das erstmals klinisch getestet – mit einem speziell für Therapie trainierten Chatbot namens „Therabot". Ergebnis: 51 Prozent weniger Depressionssymptome nach acht Wochen. Vergleichbar mit klassischer Verhaltenstherapie. Aber Vorsicht: ChatGPT, Claude oder Gemini sind keine Therapeuten. Die sind als Allzweckwerkzeuge gebaut. Die American Psychological Association warnt klar: Allgemeine Chatbots erkennen Krisen oft nicht, verstärken im schlimmsten Fall negative Denkmuster – und unterliegen keiner Schweigepflicht. Was du da reintippst, ist nicht geschützt wie beim Therapeuten. Meine 5 Regeln, wenn ihr Chatbots für seelische Unterstützung nutzt: 1. Ein Chatbot ist kein Therapeut. Bei ernsthaften Problemen: professionelle Hilfe holen. 2. Für leichtere Belastungen durchaus nützlich – Gedanken sortieren, Atemtechniken, Tagebuchersatz. 3. Nicht alles glauben. Chatbots geben euch gerne recht. Das fühlt sich gut an, hilft aber nicht immer. 4. Datenschutz beachten. Keine Klarnamen, keine Befunde reinkippen. Bei ChatGPT in den Einstellungen das Modelltraining deaktivieren. 5. Wer es gezielter will: Apps wie Wysa oder Woebot wurden mit Psychologen entwickelt und haben Krisenprotokolle. Am Ende gilt: Lieber mit einer KI reden als mit niemandem. Aber eine KI sollte die Brücke sein – nicht das Ziel. Telefonseelsorge: 0800 111 0 111 – kostenlos, anonym, rund um die Uhr. Was sind eure Erfahrungen – hat euch ein Chatbot schon mal in einer schwierigen Situation geholfen? Oder seht ihr das kritisch? Schreibt's in die Kommentare.
2
0
KI als Seelentröster – was können Chatbots wirklich?
🤖 „LLM" – was bedeutet das eigentlich?
Wenn du dich mit KI beschäftigst, stolperst du ständig über diese drei Buchstaben: LLM. ChatGPT ist ein LLM. Claude ist ein LLM. Gemini ist ein LLM. Aber was genau steckt dahinter – und warum ist es wichtig, das zu verstehen? Die Abkürzung LLM steht für Large Language Model – auf Deutsch: großes Sprachmodell. „Groß" ist dabei keine Übertreibung. Die leistungsfähigsten LLMs von heute wurden mit Hunderten Milliarden von Parametern trainiert – das sind die internen Stellschrauben, an denen das Modell dreht, um Sprache zu verstehen und zu erzeugen. Was ein LLM eigentlich macht Im Kern tut ein LLM etwas verblüffend Einfaches: Es sagt das nächste Wort vorher. Immer und immer wieder, Wort für Wort, bis ein ganzer Text entsteht. Klingt simpel? Ist es im Prinzip auch. Aber wenn du dieses simple Prinzip auf eine riesige Datenmenge loslässt – im Grunde große Teile des Internets, Bücher, wissenschaftliche Arbeiten, Wikipedia, Foren, Code –, dann passiert etwas Erstaunliches: Das Modell lernt nicht nur Grammatik und Satzbau, sondern auch Zusammenhänge, Logik, Fachwissen, Humor, Stil und sogar so etwas wie Argumentation. Nicht weil jemand ihm das alles einzeln beigebracht hätte. Sondern weil es aus den Mustern in den Daten Strukturen erkennt, die unglaublich leistungsfähig sind. Wie das Training funktioniert – stark vereinfacht Stell dir vor, du liest dein ganzes Leben lang Bücher – Millionen davon. Irgendwann kannst du einen angefangenen Satz so gut weiterführen, dass er klingt, als käme er aus dem jeweiligen Buch. Du hast nie eine Regel gelernt, aber du hast ein Gespür dafür entwickelt, was als Nächstes kommen sollte. Genau das macht ein LLM, nur in einer Größenordnung, die sich kein Mensch vorstellen kann. Das Training läuft in zwei Phasen: 1. Pre-Training: Das Modell liest riesige Textmengen und lernt dabei, Muster in Sprache zu erkennen. Was folgt typischerweise auf welches Wort? In welchem Kontext? Das dauert Wochen bis Monate und verschlingt Millionen an Rechenkosten.
🤖 „LLM" – was bedeutet das eigentlich?
🔍 Deepfakes: Was du jetzt darüber wissen solltest
Deepfakes sind gerade überall in den Nachrichten – wegen des Falls Collien Fernandes, wegen Demos in Berlin und Hamburg, wegen eines Gesetzentwurfs der Bundesregierung. Aber mal ehrlich: Weißt du eigentlich, was genau hinter dem Begriff steckt, wie die Technik funktioniert und warum das Thema gerade jetzt so explodiert? Hier die wichtigsten Hintergründe – kompakt, verständlich und ohne Juristendeutsch. Woher kommt der Begriff? „Deepfake" ist ein Kofferwort aus Deep Learning (eine Methode der Künstlichen Intelligenz) und Fake (Fälschung). Geprägt hat den Begriff Ende 2017 ein anonymer Reddit-Nutzer mit dem Pseudonym „deepfakes". Der hatte mithilfe neuronaler Netze Gesichter von Schauspielerinnen in Pornovideos montiert – und seinen Code einfach öffentlich ins Netz gestellt. Innerhalb weniger Wochen hatte das zugehörige Forum über 90.000 Abonnenten. Reddit hat es dann gesperrt, aber der Geist war aus der Flasche. Der Begriff hat sich seitdem stark geweitet. 2017 meinte man damit nur ganz bestimmte KI-generierte Gesichtertausch-Videos. Heute steht „Deepfake" für praktisch jedes KI-erzeugte oder KI-manipulierte Medium – ob Bild, Video oder Audio. Wie funktionieren Deepfakes technisch? Die Grundlage legte 2014 der Informatiker Ian Goodfellow mit den sogenannten Generative Adversarial Networks (GANs). Das Prinzip ist genial einfach: Zwei neuronale Netze treten gegeneinander an. Das eine erzeugt eine Fälschung, das andere versucht sie zu entlarven. Durch dieses ständige Katz-und-Maus-Spiel werden die Ergebnisse immer besser – bis die Fälschung vom Original kaum noch zu unterscheiden ist. Beim klassischen Face Swap lernt ein sogenannter Autoencoder, wie ein bestimmtes Gesicht aussieht – aus verschiedenen Winkeln, bei verschiedener Beleuchtung, mit unterschiedlicher Mimik. Hat das Netz genug gelernt, kann es dieses Gesicht selbstständig erzeugen und in ein fremdes Video einsetzen. Der Mund bewegt sich synchron, die Mimik passt – täuschend echt. Für Audio-Deepfakes (Voice Cloning) wird die Stimme einer Person analysiert – Tonhöhe, Sprechrhythmus, Betonung – und dann synthetisch nachgebaut. Das Ergebnis: Ein KI-generierter Klon, der klingt wie das Original.
3
0
🔍 Deepfakes: Was du jetzt darüber wissen solltest
🤖 Chatbot statt bester Freund? Warum das Thema uns alle angeht
Eine aktuelle Bitkom-Umfrage zeigt, was viele von euch vermutlich schon geahnt haben: Ein Viertel der Nutzer (26 Prozent) empfindet Chatbots wie ChatGPT, Gemini oder Claude manchmal wie eine digitale Bezugsperson. Bei den unter 30-Jährigen liegt der Wert sogar bei 32 Prozent. Ich war heute dazu im Fernsehen und habe das Thema eingeordnet. Hier meine Einschätzung – und die geht bewusst in beide Richtungen. Was daran erst mal gar nicht schlimm ist Die große Chance: Ein Chatbot ist immer da. Nachts um drei, wenn kein Freund ans Telefon geht und kein Therapeut erreichbar ist. Es gibt keine Warteliste, keine Hemmschwelle, kein Schamgefühl. Gerade für Menschen, die sich schwertun über ihre Probleme zu reden, kann das ein erster Schritt sein, überhaupt Worte dafür zu finden. Das ersetzt keine professionelle Hilfe – aber es kann eine Brücke dorthin sein. In Deutschland fühlt sich inzwischen rund jeder dritte Mensch einsam, bei den 18- bis 30-Jährigen sogar fast jeder zweite. Da verstehe ich jeden, der erstmal mit einer KI redet, bevor er gar nicht redet. Wo es aber problematisch wird Das zentrale Risiko: Ein Chatbot hat keine echte Beziehung zu dir. Er erinnert sich nicht wirklich, er sorgt sich nicht wirklich. Wenn sich jemand in diese Illusion zurückzieht und echte Kontakte dafür aufgibt, wird es gefährlich. Und im Ernstfall – bei einer echten Krise – fehlt der KI das Urteilsvermögen, das ein ausgebildeter Therapeut hat. Dazu kommt ein Problem, das einen Fachbegriff hat: Sycophancy. Die KI neigt dazu, dir nach dem Mund zu reden. Das ist kein böser Wille, sondern liegt an der Art, wie diese Systeme trainiert werden – sie wurden darauf optimiert, hilfreiche und angenehme Antworten zu geben. Ein guter Freund sagt dir auch mal unbequeme Wahrheiten. Eine KI tut das nur, wenn sie ausdrücklich dafür gebaut wurde. Wie das technisch funktioniert (und warum es sich so echt anfühlt) Der Chatbot analysiert, was du schreibst, erkennt Stimmungen und Muster in deiner Sprache und formuliert darauf eine passende Antwort. Das fühlt sich erstaunlich empathisch an – ist aber im Kern Textverarbeitung auf sehr hohem Niveau. Die KI versteht nicht, wie sich Trauer anfühlt. Sie hat gelernt, was Menschen in solchen Situationen als hilfreich empfinden. Mit Sprachfunktion wird das nochmal intensiver, weil eine warme Stimme uns emotional viel stärker anspricht als Text. Das macht die Technik wirkungsvoller – aber eben auch verführerischer.
🤖 Chatbot statt bester Freund? Warum das Thema uns alle angeht
1-30 of 92
Superkraft KI
skool.com/superkraft-ki
KI verstehen. KI nutzen. Superkräfte aktivieren.
Leaderboard (30-day)
Powered by