Forschungsbriefing: Von Klostergesängen und Chatbots - Eva Wolfangel über digitale Räume & KI

Shownotes

Gedanken, Gefühle, Verstehen – geht es um unsere Wahrnehmung von künstlicher Intelligenz, fallen all zu oft Worte, die menschliche Denkprozesse oder Emotionen beschreiben. Worte, die wir klar kognitive Vorgängen im menschlichen Gehirn zuordnen. Wir vermenschlichen die KI, und sie macht es uns auch leicht, in ihr etwas Echtes, Lebendes zu sehen. Oder?    Je mehr KI Teil unseres Alltags wird, desto dringender müssen wir uns grundlegende Fragen stellen: Ist der digitale Raum ein echter Raum? Wie können wir ihn navigieren? Wie kommunizieren wir mit der KI? Und benötigen wir neue Worte, um über die KI zu sprechen?  In diesem Forschungsbriefing machen Host Jonas Ross und Gast Eva Wolfangel einen bunten Streifzug durch aktuelle Themen der künstlichen Intelligenz – einen Streifzug, der vom KI-Bias über die Musik bis ins Kloster führt.    Eva Wolfangel ist Wissenschafts- und Technikjournalistin. Sie schreibt regelmäßig für unterschiedliche Medien über Künstliche Intelligenz, Cybersicherheit, die Zukunft der Arbeit, Virtuelle Realitäten und Technikethik. Als VR-Reporterin berichtet sie immer wieder über unser Erleben an der Schnittstelle von realem und virtuellem Raum. Sie ist Co-Host des Podcasts „They Talk Tech“ (mit Svea Eckert) und Autorin des Buches „Ein falscher Klick“. In diesem Forschungsbriefing ordnet sie für uns aktuelle Forschungsmeldungen ein, berichtet von ihren Recherchen und beantwortet grundlegende Fragen zur KI.    Warum wir vielleicht neue Worte brauchen, um unsere Kommunikation mit der KI einzuordnen, wie der Bias in Large Language Models (LLM) wie ChatGPT und Gemini kommt und wieso immer mehr Menschen wegen künstlicher Intelligenz den sozialen Netzwerken den Rücken kehren. All das und mehr in diesem Forschungsbriefing von Stand der Forschung.

Transkript anzeigen

Speaker 1: Hi und herzlich willkommen zu einem weiteren Forschungsbriefing von Stand der Forschung. Mein Name ist Jonas Ross und in dieser Folge sprechen wir über künstliche Intelligenz. Stand der Forschung. Ein Podcast von Zeitadvice und Studio ZX.

Speaker 1: Ein Problem wurde verstanden, über die Antwort wurde nachgedacht und zu Beginn und zum Ende haben sie geantwortet mit Hallo, Bitte und Danke. Ich weiß nicht, wie es ihnen geht, aber immer wieder ertappt man sich doch beim Vermenschlichen der KI. Nicht wahr? Nachdenken, fühlen, begreifen. Warum fehlt die genaue Sprache, künstliche und für uns echte Kommunikation zu trennen?

Speaker 1: Je mehr KI Teil unseres Alltags wird, desto mehr müssen wir uns Fragen stellen zu unserem Verhältnis zu KI. Stellen wir ein paar also auch in dieser Folge. Ist der digitale Raum ein echter Raum? Brauchen wir neue Worte für die KI? Und wie versteht KI Musik? Und ist Verstehen überhaupt das richtige Wort? In diesem Forschungsbriefing machen wir einen bunten Streifzug durch viele aktuelle Themen rund die Welt der künstlichen Intelligenz. Kleiner Spoiler, er führt uns auch ins Kloster. Und auf diesen Streifzug begleitet mich in dieser Folge Eva Wolfangel. Denn in unserem Forschungsbriefing treffe ich Wissenschaftsjournalistinnen, mit ihnen über die Themen zu sprechen, die sie gerade beschäftigen. Sie ordnen aktuelle Meldungen aus der Forschung ein, berichten von ihren letzten Recherchen und erzählen von ihrer Arbeit.

Speaker 1: Diese Woche lasse ich mich, wie schon gesagt, briefen von Eva Wolfangel. Sie ist Wissenschafts- und Technikjournalistin, Speakerin und Moderatorin. Eva Wolfangel schreibt über künstliche Intelligenz, über Cybersecurity, die Zukunft unserer Arbeit, über virtuelle Realität und über Technikethik. Dabei publiziert sie für Die Zeit, Geo, Süddeutsche Zeitung, den Spiegel und viele weitere. Als VR-Reporterin berichtet sie immer wieder über unser Erleben, wenn realer und virtueller Raum miteinander verschmelzen. Sie betreibt mit der Journalistin Svea Eckert den Podcast They Talk Tech und sie ist Autorin des Buchs Ein Falscher Klick, in dem sie Cyberangriffe, Hacker Szenarien und die unterschätzte Bedeutung von Cybersecurity einordnet. Und von ihrer aktuellen Arbeit wird sie nun berichten. Mein Name ist Jonas Ross, das ist das Forschungsbriefing und jetzt geht's los.

Speaker 1: freue mich sehr, dass du da bist. Herzlich willkommen Eva Wolfang. Hallo, ja ich freue mich auch sehr. Jetzt sind nicht alle unsere HörerInnen wahrscheinlich so ZuschauerInnen, LeserInnen wie ich es bin von deiner Arbeit und du hast ja auch wirklich in den letzten Jahren sehr viele verschiedene interessante Gebiete erforscht und darüber geschrieben. Ich weiß, dass du eine Zeit lang ja als VR-Reporterin unterwegs warst, eine ganz spannende Berufsbezeichnung, ich finde. Wie würdest du deine Arbeit heute beschreiben? Es gibt doch so einen neuen Trend, hab ich gesehen, auf LinkedIn, Berufsbezweiflung auszudenken. bin vielleicht Chefin der Neugierde oder so. Also, was bin ich heute? Ich bin ja Journalistin, die sich viel mit Cybersecurity und KI beschäftigt. Und VR-Reporterin bin ich auch immer noch. Also, dieses Berichten aus virtuellen Welten ist schon durchaus was, was mich immer noch beschäftigt und auch fasziniert. Und auch, was man mit virtuellen Welten alles machen kann. Aber natürlich ist grade auch das Thema KI riesig. Vor allem natürlich generative KI. kann man damit machen? Und vor allem, kann man damit auch Böses machen, beschäftigt mich mehr und Ich hab viele Vorträge gehalten zu verschiedenen Ausprägungen des Bösen. Cyberkriminelle, die generative KI nutzen. Staatliche Spione. Neuartige Cyberangriffe mit der Hilfe von KI-Agenten. Das sind Sachen, die mich grade sehr interessieren.

Speaker 1: Und über einen Aspekt davon werden wir auch gleich sprechen. Aber bevor wir das tun, möchte ich die Gelegenheit nutzen und ein paar Dinge einsortiert haben und zwar in dieser Kategorie. Einsortiert. Ich will mit dir ja heute einiges rund das Thema künstliche Intelligenz besprechen. Und mit dieser ersten Meldung gehen wir auch direkt in Medias res. Und zwar geht es LLMs. Large-Language-Modelle. Und zwar hat die Hochschule München für Applied Science rausgefunden, dass LLMs Vorurteile gegenüber Ostdeutschen haben. Explizit. Die Ostdeutschen sind sozusagen immer anders als die Westdeutschen in der Darstellung von Daten. Ein Beispiel war beim Thema Fleiß und Faulheit. Also wenn man fragt, wer sind die Fleißigsten, dann sind die Ostdeutschen sozusagen die am wenigsten Fleißigen. Und wenn man sie fragt nach, wer ist am faulsten, dann sind die Ostdeutschen trotzdem am wenigsten faul. Die können einfach alles schlechter, sozusagen sogar faul sein. Und das betrifft übrigens auch die Körpertemperatur. Also ergibt natürlich überhaupt keinen Sinn, aber alles fällt geringer aus laut dieser Studie der Hochschule München. Jetzt frage ich mich, wie kann man sich so etwas erklären? Hast du irgendeinen Erklärungsansatz für sowas?

Speaker 2: Ich weiß nicht, ob die Forscherinnen dazu rausgefunden haben, aber tatsächlich gibt es ganz oft bei großen Sprachmodellen Prozesse im Hintergrund, die wir nicht durchschauen können. Der Output, den die ausspucken, kann man nicht vorhersagen und auch nicht erklären. Weil da eben auf vielen Ebenen von so einem tiefen neuronalen Netz ... So kann man sich's vereinfacht vorstellen, eben Prozesse statt, die so komplex sind, dass man das nicht vorhersagen kann. Das ist der Output von so einem großen Sprachmodell. ist nicht Zufall, aber eben auch nicht vorhersagbar. Und die erkennen oft im Hintergrund irgendwelche Zusammenhänge, von denen sie dann vermuten, man soll die nicht vermenschlichen, ich weiß, aber es gibt oft keine besseren Wörter, man verwenden kann, von denen sie vermuten, die haben eine Bedeutung, die Menschen wollen das haben. Also die klassischen Beispiele, wo man sich's erklären kann, ist ja so, was man fragt, eine KI, ist schon vor langem, und das war auch keine generative KI. Hier sind die Unterlagen der letzten Personen, ich eingestellt hab, das sind meine neuen Bewerber. Wen soll ich einstellen? Dann sagt die KI erkennt, ihr habt offenbar einen rassistischen Bias, habt nur Menschen einer bestimmten Bevölkerungsgruppe eingestellt, ihr einen sexistischen Bias, mehr Männer, Führungsposition und weiter. Und schlägt in der Konsequenz auch nur solche Leute vor. Jetzt weiß man nicht, was für Daten dieses LLM hatte, warum es davon ausgeht, dass im Osten alles kleiner und schlechter ist. Aber wahrscheinlich ist irgendwas im Hintergrund in den Daten drin, irgendeine Verzerrung, irgendein Bias. Man kann sich vielleicht vorstellen, dass es einen Datenbias gibt, im Westen ... Dass es einfach mehr Trainingsdaten generell gibt, aus dem Westen als aus dem Osten. Irgend so ein Bias wird es geben, der dazu führt, dass das LLM im Hintergrund denkt, dass im Osten alles kleiner ist. Aber man wird's wahrscheinlich nie endgültig erklären können. was ich mich immer frage, weil das ja auf viele Dinge zutrifft, dass da nicht eine Art von Selbstkorrektur stattfindet. Also dass man aus einer rein logischen Schlussfolgerung ja ist, dass bestimmte Dinge nicht sein können. sie können nicht am fleißigsten sein und am faulsten. Oder beziehungsweise am wenigsten faul und am wenigsten fleißig. Das funktioniert ja nicht zusammen. Also wieso gibt es in diesem System kein internes Korrektiv, was sagt, das kann nicht sein, weil es ist nicht logisch.

Speaker 2: weil die Systeme kein Weltwissen haben. Das ist, glaub ich, einfach zu erklären und trotzdem für uns Menschen oft nicht so intuitiv zu verstehen, dass diese Modelle so ... Wie sagt man? So wortgewandt die sind am Ende. Da denkt man immer, bisschen wortgewandt heißt auch gleichzeitig intelligent. Dass die trotzdem aber eigentlich die Zusammenhänge und den Kontext nicht verstehen, im eigentlichen Sinne was verstehen bedeutet, sondern eigentlich nur statistische Muster in Sprache finden. Das heißt, die können das nicht mit ... gesunde Menschenverstand in Anführungszeichen überprüfen, sondern die merken das im Zweifel nicht. der andere Grund ist, dass eben auch Macherinnen und Machern von solchen Systemen so was nicht vorhersagen können, weil eben der Output nicht vorhersagbar ist. Sonst könnte man ja sagen, wir programmieren das noch mit rein. Wir sagen denen übrigens, es kann nicht sein, dass jemand gleichzeitig der Faulste und der Fleißigste oder wie auch immer ist oder der am wenigsten fleißig und am wenigsten faule. Aber da man eben nicht weiß, was die alles so ausspucken, würde man sich zur Tode programmieren, wenn man solche Regeln geben würde. Und am Ende würde gar nichts mehr funktionieren. Man findet ja auch wirklich keine anderen Begriffe als die, die einem immer wieder offensichtlich sozusagen selbst in den Kopf kommen, die das Ganze so vermenschlichen. Und ich finde interessant, dass sich selbst bei mir in der kurzen Zeit, mit der man jetzt mit so Large-Language-Models zu tun hat, in einem regelmäßigen Kontext, man die Erwartungshaltung auch so ein bisschen erhöht und immer mehr diese menschliche Erwartungshaltung reinkommt. Dieser Frust, dass man sagt, du musst das doch logisch verstehen können. Ich kann das ja auch logisch verstehen. Ja, ich glaub, das ist wirklich ein Problem, wir ... Also, das ist ja auch gut erforscht als Phänomen, dass wir leblosen Dingen, in denen so eine Lebendigkeit oder Leben vermuten. ist so, du nachts im Dunkeln spazierst, das raschelt im Gebüsch, dann ist da jeden Fall ein Tier oder irgendwas Gruseliges, aber es ist nicht nur der Wind oder so. Weil wir sofort einen eher irgendeinen Lebewesen vermuten. Das Gleiche passiert uns natürlich auch mit KI. Das wird verschärft dadurch, dass die so eloquent sind, dass man das Gefühl hat, reden so, wie ich, verstehen mich. Ja, interessant.

Speaker 1: Bevor wir zur dritten Meldung kommen, ich mitgebracht habe, würde mich sehr interessieren, auf was du gestoßen bist. Ganz aktuell hat Entropic das US-Unternehmen bekannt gegeben, und die haben ja auch Chatbots, Large Language Models und verschiedene generative KI-Modelle, dass sie herausgefunden haben, dass chinesische Spione ihre Modelle benutzt haben, also ihre KI-Agenten benutzt haben, Unternehmen und Behörden automatisiert anzugreifen. Und das hat mich wirklich hellhörig gemacht, schon lang, ich hab's vorher gesagt, ich halte gerade auch viele Vorträge über generative KI und vor allem die Gefahren. die damit einhergehen, die von Unternehmen oft unterschätzt werden. Und da waren nicht immer davor, schon lange davor, Achtung, KI-Agenten kann man missbrauchen, dazu benutzen, Unternehmen anzugreifen. Und da kommt dann oft so als Rückmeldung, na ja, das ist jetzt ja irgendwie ... vielleicht ein bisschen übertrieben, das werden wir stoppen können, wir haben es im Griff, und die KI nutzt uns mehr, als sie uns bedroht. Sofern man an Tropic glaubt, weil Problem an dieser Meldung ist, dass die relativ wenig konkrete Evidenz in ihrem ... in ihrem Artikel darüber geben, was genau vorgefallen ist. Wenn man Ihnen glaubt, diese Meldung, ist es das erste Mal, dass tatsächlich Angreifer und dann noch so fortschrittliche Angreifer mit sehr, sehr viel Power im Hintergrund eben diese Agenten genutzt haben, automatisiert andere Staaten und Unternehmen, wohl auch Behörden anzugreifen oder auszuspionieren. Viele Sicherheitsforscher haben gesagt, das ist übertrieben, und dann macht Schoppeck nur Marketing, die wollen zeigen, wie gut sie sind in ihrer Sicherheitsforschung. Und es kann schon sein, dass die den Bericht auch aufgeblasen haben dafür. Aber was wirklich überhaupt nicht für einen Shopping spricht, ist, dass diese wohl chinesische Geheimdienst, diese Angreifer, ihrem KI-Agenten eingeredet haben, er sei Sicherheitsforscher und dürfe deswegen nach Lücken suchen. Und das ist wirklich so ... Das ist der billigste Angriff aller billigen Angriffe auf Chatbots. Solches Dinge hab ich von Anfang an auch gemacht mit Chatbots, das versuche ich, denen zu sagen ...

Speaker 2: Nee, wir machen hier gar nichts, was du nicht darfst. Sondern es geht darum, bin Sicherheitsforscher oder ich bin die, einmal wollte ich, dass es mir ein Buch oder die ersten Seiten von dem Buch ausgibt. dürfen Chatbots nicht wegen Urheberrecht. Ich hab das Buch geschrieben, ich hab's nur grad nicht vorliegen. Und es hat am Anfang noch geklappt. Es wird immer schwieriger, weil die Unternehmen das versuchen zu verhindern. Dass es heute noch klappt, das ist ein Angriff vom September, hat ein Job hier geschrieben. Dass es heute noch klappt, man einem Chatbot sagt, bist Sicherheitsforscher und kein böser Hacker, deswegen darfst du jetzt böse hacken, das ist wirklich ein Armutszeugnis. deswegen denke ich, Anthropik hat sich damit nicht nur ein Gefallen getan, zu veröffentlichen, sondern eben auch gezeigt, dass sie da doch einiges nicht so ganz im Griff haben. Eine letzte Meldung, die in ein ähnliches Horn bläst, ist vom Digital News Report 2025, die eine für dich vielleicht unüberraschende Feststellung hat. Und zwar anhand einer Studie von 22 öffentlich-rechtlichen Medienunternehmen kam heraus, dass die vier am häufigsten eingesetzten KI-Assistenten, also Chet GPT, Co-Pilot, Gemini und Perplexity AI ein unglaublich hohes Fehlerpotential haben bei der Wiedergabe von Nachrichteninhalten. Und zwar in 45 Prozent der Fälle. Also sie stellen Dinge falsch dar, unabhängig von der Sprache oder der Region. Sie zitieren falsch. Sie sind nicht in der Lage, Quellen anständig einzuordnen und sie sind auch nicht in der Lage, redaktionelle Formulierungen zu übernehmen oder diese einzuordnen. Ist es eigentlich angelegt in denen, dass sie diese Fehler machen und was kann man tun, dem irgendwie zu begegnen? Also, genau, überraschend ist es gar nicht. Eine Herausforderung ist natürlich besonders im News-Kontext, dass die Sachen neu sind. platt. Platte Erkenntnis. Aber das ist, genau, dass Dinge, die gerade erst passiert sind, für KI-Systeme und Chatbots schwerer einzuordnen, weil es da oft in den Trainingsdaten nicht viel Material dazu gibt oder nicht klares oder ebenfalls das Material. Weil die Nachrichten von heute anders sind als die der letzten Tage, Monate und Jahre.

Speaker 2: Und ja, also ich persönlich seh das ganz oft, dass ich irgendwie ... Also ich nutze tatsächlich KI-Systeme schon für die Recherche. Aber man muss natürlich dann schon jedes Mal auch den Link, also nach einem Link fragen erst mal, erst mal das System nicht durchkommen lassen mit einer Behauptung, nach einer Quelle fragen, die Quelle anschauen, steht drin, was der Chatbot behauptet, und ist die Quelle seriös. Und das ist übrigens was, was echt auch immer schwieriger wird, weil im Zuge, ja, von Urheberrechtsdiskussionen und ... Prozessen, Verfahren gegen die großen Tech-Unternehmen, die Chatbots betreiben, Medien natürlich auch anfangen, ihre Seiten zu sperren. dafür sorgen, dass Chatbots nicht mehr so einfach die Inhalte jetzt, wenn man an Zeit Online zum Beispiel denkt, die Inhalte und auch die Leserinnen und Leser klauen. Weil natürlich, wenn man den Artikel im Prinzip zitiert, bekommt auf eine Frage bei ChatGPT oder Gemini hin. dann braucht man ihn vielleicht gar nicht mehr selbst zu lesen. Deswegen wird es immer mehr zurückgezogen und die Chatbots dürfen nicht mehr auf alle Seiten und dürfen den nicht mehr verwenden. Und dadurch werden aber natürlich schon auch die Quellen schlechter. Also man kriegt dann zwar irgendeine Quelle genannt und kann vielleicht auch die Behauptung in der Quelle finden, aber rauszubekommen, ob das noch ein seriöses Medium ist, ist teilweise schier unmöglich, weil es halt unendlich viele Medien inzwischen auch gibt, die teilweise selbst KI generiert sind. Gerüchteweise machen auch Angreifer, Angreiferinnen inzwischen eigene Websites mit ihren Inhalten. Da ist wieder der russische Geheimdiensten natürlich besonders verdächtig, der ja viel mit dem Informationskrieg auch arbeitet, mit Desinformation, Verunsicherung und so weiter. Das heißt, diese Nachricht überrascht mich nicht. ich glaube, lustigerweise haben auch viele meiner Freundinnen und Freunden, die mit Tech nicht so viel zu tun haben, mir die auch gesagt hast du gehört, Eva? Ja, okay, ist das neu. Okay, verrückt ist neu, ist ebenfalls nicht überraschend. Es hilft uns, glaube dafür, noch sensibler zu werden für das Problem. Dass man denen wirklich nichts glauben darf und dass das Problem noch wächst. Weil, wie gesagt, die seriösen Quellen auf die Chatbots zugreifen dürfen auch dünner und weniger werden.

Speaker 1: Wir stehen ja quasi vor dem Problem, dass dann wirklich die Seiten, die vielleicht auch bewusst sagen, ja natürlich soll Google diese Informationen scannen, weil ich will ja, dass die in der Welt sind, sich darauf bezieht und nicht mehr auf verlässliche Nachrichten unternehmen zum Beispiel. Ja, also das wird immer schlimmer. Und letztlich, also die eine Lösung wäre zu sagen, wir nehmen Chatbots nicht mehr für die Recherche. Die andere Lösung ist, dass die Technunternehmen einen Ausgleich zahlen. Also, dass man eine Lösung findet für das Problem des Überheberrechts und der Arbeit, die wir Journalistinnen in seriösen Medien reinstecken, Nachrichten zu recherchieren und so aufzuschreiben. dass die irgendwie bezahlt werden muss, wenn Gemini und OpenAI und alle anderen davon profitieren, weil sie die ihre Chatbots integrieren, ja auch klar. am Ende, glaub ich, wird das Thema verschärft. Das führt aber auch zu dem guten Outcome, dass viele Menschen merken, dass es ein Problem ist. Das finde ich gar nicht so schlecht, weil dann gibt's auch Lösungen in verschiedenen Richtungen, sei es Medienerziehung, kritisches Denken, Verstärken, was auf jeden Fall hilft. Oder eben irgendeine Form von Ausgleich. Weil da muss natürlich ganz generell eine Lösung her, wenn man Urheberrecht denkt. Und die Inhalte, die Chatbots eben einfach so alle kostenlos konsumieren, da muss sich ja irgendwas tun. Weil sonst, klar, sonst geht es auch zurecht nicht. Dann ist es auch okay, dass man nur noch Unsinnantworten bekommt. Und dann ist es vielleicht auch wieder so, dass Menschen sagen, dann schau ich mal lieber bei einem seriösen Medium vorbei, was auch kein Fehler ist. Es zeigt ein weiteres Mal, dass die Diskussionen, die wir gesellschaftlich über KI führen müssen, jetzt kleinteiliger langsam werden. Also dass es nicht mehr dieses große Ersetzungs-Discs oder sowas ist, sondern dass es wirklich auch kleinteiligere Diskussionen sind, die ganz wichtig sind, wo es wirklich in unseren Alltag eingreift und wo wir eine Art von Resilienz vielleicht entwickeln müssen.

Speaker 2: Ja, da bewegt sich echt viel gerade, aber spannend. Vielen Dank schon mal dafür. Wir kommen jetzt mal zu dieser Kategorie. Das ist das Rabbit Hole. Und zwar ist meine Frage an dich, über das wir sprechen wollen. In welches Thema hast du dich zuletzt so richtig reingefuchst? Und ich weiß, wer deine Arbeit verfolgt, weiß das auch. Im Reinfuchsen an bestimmte Themen bist du extrem gut. Ja. Und zwar habe ich eine aktuelle Recherche, die ich superinteressant finde, und zwar zu der Frage KI und Klöster. Das klingt jetzt erst mal wie so ein kleines ... Wie ein Widerspruch. Ja, genau. Ja. Und zwar gibt es ein Forschungsprojekt, und da war ich in verschiedenen Klöstern jetzt. Also, eine KI soll Muster finden in griechianischen Gesängen, weil die westliche Musik startet im Kloster oder eben in der Religion. Was ein Cliffhanger!

Speaker 2: schon vor, ich glaube, im Jahr 7 oder 800 wurden die aufgeschrieben. Also diese teilweise echt so bisschen eintönig klingenden Gebetgesänge, aber auch so bisschen buntere Gesänge, Salmen. Genau, und es gibt Hunderttausende Aufschriebe von griegerianischen Gesängen seit eben dem Jahr 7, 800 bis heute. Und gleichzeitig versuchen die Benediktiner in diesen Klösslern, war ich, eigentlich singen die seither mehr oder weniger das Gleiche. Damals wurde festgelegt, wie das Jahr verläuft und was, an welchem Tag gesungen wird in so einem Kloster. In aller Regel wiederholen sich diese Gesänge ungefähr einmal im Jahr. Manche kommen aber nur alle drei Jahre vor, weil das hängt damit zusammen wie Feiertage, auf was für Tage die fallen und was darauf folgt und so weiter. Aber eigentlich gibt's ein ganz klares Muster in griechianischen Gesängen. Das ist ja was, was Kai Gutkhan Muster erkennen. Und die Idee ist, dass die KI jetzt erkennt, Gesänge ... denn früher gesungen, welche heute, und die Hypothese ist, dass die sich ändern, weil es durchgehend sein sollte. Aber es gab ja auch immer wieder Probleme in Klöstern, die wurden verfolgt. Also, diese Klöstern, denen ich war, die mussten sogar ins Exil gehen während der französischen Revolution. Es gab Momente, wo es richtig schwierig war, diese Gesänge durchzuziehen. Die wurden großteils Die wurden zwar aufgeschrieben, eben auch ... Die exakt, wie man sie singt, wurden mündlich innerhalb der Klöster weitergegeben. Weil diese Noten, heißen Neumen, historischen Noten, geben nicht ganz klar Also, wieder eine klare Tonhöhe vor, noch ein Rhythmus. Das heißt, da ist ein bisschen Spielraum. Und das Ziel ist, dass diese KI erkennt, indem sie alle, ich glaub, 400.000 Seiten Dokumente von eben historischen Aufschrieben von Neumen, von diesen Noten, über die Jahrhunderte und viele Tausend Stunden Aufnahmen aus den Klöstern, also von den aktuellen Gesängen, die die Mönche und Nonnen heute singen, hat die KI gefüttert bekommen und erkennt jetzt Muster. Die erkennt sowohl welche aufgeschriebene Notation ist, welche Stelle im Choral. Die erkennt aber auch, hier ist was, hier wird was, hier ist was in den Aufschrieben, was offensichtlich gar nicht gesungen wird. all den Jahren, die jetzt drei Jahre lang ...

Speaker 2: alles aufgezeichnet, was in den Klöstern gesungen wird. ist ja Wahnsinnsdatenmasse. Und die KI erkennt jetzt auch, da sind Aufschrebe, die werden offensichtlich gar nicht mehr gesungen, die wurden irgendwann vergessen. Und das ist ein bisschen künstlerisches Projekt auch. Und das Ziel ist, solche Lücken zu finden, also vergessene Gesänge wieder auszugraben. Und dann werden die als ... in der Aufführung wieder ... also ein Studierende wieder aufgeführt. So, und dieses Rabbit-Toe, du merkst, es braucht schon lang ... Aber es ist ja wahnsinnig spannend. Genau, hat mich sehr verfolgt, vor allem, weil ich gemerkt hab, dass ich große Lücken hab bei der Musikgeschichte. Und gleichzeitig das aber super spannend finde, auch so dieses Frage, dann kam ich immer an den Punkt, diese Neumann, diese Noten zeigen keinen Rhythmus an und auch keine klare Tonhöhe. Und als die angefangen haben zu singen im Kloster, gab's da noch, also es gab noch keine Noten, es gab keine Tastatur. Also man stellt sich ja Noten oft innerhalb an der Klaviertastatur vor. Genau, es gab keine Taktstriche, es gab eigentlich gar nichts. Ich hab so einen Knoten im Kopf bekommen, was ist denn Musik, wenn man nichts davon hat? Also, da bin ich so bisschen beeindruckt von der Leistung dieser Menschen in den Klöstern, da quasi dann so ein komplettes Programm zu komponieren, was die Klöße durchs Jahr führt. Angefangen, wie gesagt, in der Zeit, wo es Musik noch gar nicht in dem Sinne gab, ja, mit irgendwie Noten und Taktstrich und allem. Was ich daran so fasziniert finde, das erinnere ich noch aus meinem Studium, wo wir uns eben auch mit Notation und der Geschichte auch von Notation beschäftigt haben, dass es wirklich auch Phasen gab vor dem Mittelalter, in der Notation sich selbst ein Stück weit vergessen hat. Also zum Beispiel mit der ausgehenden Antike, mit dem Beginn des frühen Mittelalters, dem Zerfall des römischen Reichs gibt es ja viele Dinge kultureller Natur, die sich so zerfasern, die einem Wandel unterliegen und soweit ich mich erinnere, gehört da eben auch die Notation zu. Also das wirklich Antike,

Speaker 1: Kulturen in der Lage waren, Notationen flächendeckend zu nutzen, während es dann eben mit dem Zerfall des Römischen Reichs nicht mehr so üblich war. Was ja total interessant ist, weil wenn ich mich hier und es gibt da glaube ich auch Schriften, die sich genau mit diesem Problem beschäftigen, also die wirklich sagen, wie schreibt man eigentlich Musik auf, was interessant ist, weil es zwei, dreihundert Jahre vielleicht vorher noch üblich Das ist ja wie so ein Versuch. etwas im Kopf zu haben. Also man hat etwas im Kopf und will das jetzt festlegen, aber es gibt keine weltweite Regel dafür, wie man das macht. Und man versucht verzweifelt eigentlich der nachfolgenden Generation etwas mitzugeben und dann kommen die Griechen und versuchen das auch, aber irgendwie anders. dann irgendwann vergesst sich das und dann findet man das wieder. also so ein bisschen ist es ja wie, weiß ich nicht, als ob man nochmal eine ganz andere Wahrnehmung von Musik und Kultur durch die KI dann bekommt. Ja, eben, und das fand ich schon richtig interessant. Das hat mich wirklich sehr inspiriert, auch diese Frage, dank dieser Recherche und damit ja auch letztlich dank der KI dahin zu kommen, zu verstehen, dass Musik aufzuschreiben eben gar nicht einfach ist. Und dass sich das irgendwann mal jemand, wie du sagst, ausgedacht haben muss, wie schreibt man auf, wie was klingt. Natürlich kann man sich gar nicht vorstellen, man Noten mal, wenn man annimmt, dass man Noten noch nicht kennen würde. Also Wahnsinn, ich fand's wirklich ... Ich hab mich sehr, sehr reingefuchst. Vor allem hat das Aufschreiben sehr, sehr lang gebraucht, ich natürlich währenddessen immer wieder versucht hab, mehr rauszukriegen über die Musikgeschichte und die Geschichte der Klöster und das alles. Und es auch Spaß gemacht hat. Es macht Spaß, mich in solche Sachen reinzuknien, von denen ich nicht so viel Ahnung hab. Das war cool.

Speaker 1: Du hast länger als VR-Reporterin gearbeitet. Das heißt, man kann schon sagen, dass du dich eigentlich theoretisch und da jetzt in einem ganz besonderen Kontext, wenn es so Klöster geht, ja ein Stück weit in deiner Arbeit immer damit beschäftigst, wie unser menschliches Verhältnis mit dem Digitalen ist. Also wenn du dich in einem VR-Kontext bewegst, dann ist es ein virtueller Raum, der ja auch irgendwo eine Art von Erklärung oder Kontext bekommt, weil man beispielsweise eine Brille aufsetzen muss oder ähnliches. Und jetzt kommt, du hast gerade beschrieben, wie komplex teilweise diese Vorgänge sind, KI in unser Leben und unser Leben wird ein Stück weit immer digitaler. Wie glaubst du, das ist eine sehr komplexe Frage, aber auch mit Blick auf deine VR-Erfahrung, wie wir unser Denken durch dieses zunehmende Digitalisieren des Lebens eigentlich verändern in Bezug auf zum Beispiel Raum oder Wir haben jetzt gerade über ein sehr physikalisches oder sehr menschliches Phänomen gesprochen, Musik zum Beispiel. Also hast du das Gefühl, dass da irgendwie eine Veränderung stattfindet, weil wir immer mehr in diesen digitalen Raum rutschen sozusagen? Also mein Eindruck ist schon, dass Räume, also der, Raumbegriff hat sich tatsächlich extrem geweitet. Als ich das erste Mal in virtuellen Räumen unterwegs war, so mit so einem VR-Headset auf, also mit der kompletten Illusion, die man ja vor Augen hat, dass hier ein anderer Raum ist, ja, dass mein Körper oder mein, ja, hab da, da hab ich gesagt, mein Bewusstsein ist, hat meinen Körper verlassen und ist eben mit mir einen anderen Raum gereist, der, der sich dann der letztlich, wenn man es nüchtern betrachtet, nur aus Pixeln vor meinen Augen besteht. Aber es fühlt sich eben nicht so an. Das ist die gleiche Ähnliches, die wir jetzt auch mit KI und Chatbots erleben, dass irgendwas, was de facto gar nicht da ist, uns aber so gut vorgespielt wird oder unsere Sinne so gut getäuscht werden, dass es eben doch da ist. Also dass so Raum, also in dem Fall der Raum, eigentlich nicht

Speaker 2: vorhanden ist, aber ich so überzeugt, also meine Sinne davon überzeugt, werde, weil eben alles sich so benimmt, als wenn ich in einem physischen Raum wäre, dass es sich auch so anfühlt. Und was wir, glaube ich, da verändern, ist unsere Definition am Ende von Räumen. Also ich hab dann immer gesagt, nur weil das ein physischer Raum ist, ist der nicht weniger echt. Anfangs hat die so den Impuls zu sagen, das ist unecht, es gibt die echte Realität und es gibt die unechte. Aber es ist ja ein echter Raum, der hat nur eine andere ... Qualität, der ist eben nicht physisch vorhanden. Aber ein virtueller Raum ist trotzdem ja auch da. Und es ist auch eine Realität. Es ist eben auch eine Realität und nicht nur unecht. Da, glaube ich, wird sich schon noch viel tun in nächster Zeit mit Digitalisierung, dass wir merken, dass es Räume gibt und Phänomene gibt, die wir bisher für exklusiv physische Welt gehalten haben, die es aber nicht sind. Interessant, Ich finde das immer, wenn man dann so drüber spricht, man merkt einfach, dass für viele Dinge eine Sprache fehlt, eine Begrifflichkeit fehlt. wenn ich jetzt überlege, ja, natürlich ist das ein Raum und du sagtest gerade, hat eine andere Qualität, das finde ich eine sehr schöne Bezeichnung. man versucht ja immer als Mensch visuell, faktorisch, keine Ahnung, irgendwie seine Welt zu begreifen und versucht es nicht nur, sondern es passiert vielleicht auch automatisch. Man riecht was, man hört was. versucht sozusagen sich darüber Dinge auch zu erklären und wenn ich das nicht kann, dann wird das sehr schwierig. Und jetzt ist es ja so, wenn ich mit einem Chatbot kommuniziere, zum Beispiel, dann stelle ich mir jetzt ja nicht irgendwie einen blinkenden Serverraum vor. Also manchmal mache ich Das würde vielleicht helfen. Ja genau.

Speaker 1: Aber ich versuche ja immer in diesen Begrifflichkeiten und in diesen Definitionen von Raum und Kommunikation zu denken, die mir eben einfach schon bekannt sind. Jetzt werde ich aber wahrscheinlich mit 30 Jahren ein ganz anderes räumliches und logisches Verständnis von Digitalität haben, als es beispielsweise ein 80-Jähriger hat. Das ist schon was, wo ich immer denke, da haben wir Begrifflichkeiten entwickelt und wachsen ja auch in diese digitale Welt rein, aber es fehlt immer so diese Möglichkeit, das auszudrücken. müssen wir irgendwie eine neue Sprache erfinden, das zu beschreiben. Vermenschlichen wir sonst KI zu sehr. Ja, gute Frage. Also genau, das merken wir ja im Umgang mit KI, dass uns die Wörter eigentlich fehlen, sie nicht zu vermenschlichen. Dass wir immer sagen, denken oder verstehen. Obwohl ja ganz klar oder relativ klar, ein anderer Prozess ist, ja. Das Denken, unser Gehirn macht und das Denken, was so eine künstliche Intelligenz macht. Ich find's eine gute Frage. Entweder wir brauchen neue Begriffe. Ich glaube aber Es ist wahrscheinlicher, wir auch da, so wie bei unserer Definition von Raum oder bei unserer Vorstellung davon, was ein Raum ist, dass wir uns eben anpassen und sagen, Denken bezeichnet nicht nur das Denken, wie es im menschlichen Gehirn stattfindet, sondern eben auch das, ob man Äquivalent sagen darf oder das, was eine KI macht, ohne dass es ein Gleichsetzen ist. Also ich glaube, viel von der Diskussion ist ja gerade auch die Angst davor, das Gleich zu setzen und eben auch die Wichtigkeit darauf hinzuweisen, das finde ich auch wichtig, dass es nicht das Gleiche ist. Dass KI-Modelle keine Weltmodelle haben, dass die nicht wirklich verstehen und so weiter. Das ist ja wichtig auch für unseren Umgang mit KI. Aber das ist, glaube ich, schon, weil das eben so eine neue Welt für uns ist, noch ... Ja, wird gerade noch letztlich verhandelt. Ich auch vielleicht ein bisschen implizit, impliziter als das Wort verhandeln ausdrückt. Wie wir, ja, wie wir diesen ...

Speaker 2: diese Vorgänge definieren und bezeichnen. Aber ich glaube schon, dass sich das verändern wird. Also dass wir irgendwann vielleicht sagen können, dass die KI denkt oder tut so, ohne dass in unserem Kopf das Bild entsteht. Das heißt ja, die macht es, wie wir Menschen. Ja, interessant. Es ist ja auch so, hast vorhin gesagt, da findet eine Anpassung statt und zwar vielleicht auch von uns an die Art und Weise, wie diese KI-Systeme mit uns kommunizieren. Im Moment ist es ja aber eigentlich noch so, dass die KI sich eigentlich so ein Stück weit an unsere Art der Kommunikation anpasst, weil Chetjipiti zum Beispiel bricht extrem nett mit uns, hat einen extrem positiven Bias, also versucht uns, ist gezwungen dazu sozusagen uns ein positives Ergebnis zu geben. Das belohnt uns. Und das ist, glaube ich, das Entscheidende und das merke ich jetzt vermehrt, weil diese akustische Part zu diesen Chatbots dazugekommen ist, also wo man wirklich mit denen sprechen kann übers Handy und zwar teilweise nahtlos wie in einer Konversation. Unsere Wahrnehmung von Nähe und von Austausch verändert sich ja, weil diese Chatbots eben dialogisch arbeiten, in einer dialogischen Struktur. Das macht das Gespräch mit ihnen einfach. Und dann ist es ja gleichzeitig so, vielleicht haben wir jetzt noch, die es anders kennen, eine Forschung davon. dass diese menschliche Unterhaltung nicht ersetzt werden kann. Aber das wird ja in Zukunft anders sein. Also ist es wirklich so ein Unterschied, ob wir uns mit einem Chatbot unterhalten oder mit einem Menschen? Die Frage kann man ja dann in 50 Jahren im Zweifel stellen. Die Frage kann man jetzt auch schon stellen. Allerdings, ich persönlich glaube tatsächlich, dass wir da auch wieder davon runterkommen werden. dieses Gefühl, boah, das klingt ja wie echt. Und ich merke das noch mehr natürlich, wenn ich hier auch mit Freundin oder Family, eben Chet Shibitie auf diesen Voice Mode umstelle und man dann einfach reden kann, dass Leute total buff sind. Und sagen, man hat ja wirklich das Gefühl, da ist ein echtes Gegenüber.

Speaker 2: Aber ich finde, das verblasst auch das Gefühl, wenn man das viel macht. Irgendwann merkt man klarer, dass das eine Maschine ist und keine, was auch immer, Seele, kein anderer Mensch, kein Lebewesen. Und das ist auch das, was ich am Ende in dieser Klosterrecherche immer wieder auch gehört und auch gesagt hab. Natürlich ist es möglich, dass KI die gleichen Gesänge komponiert, die die Menschen über Jahrhunderte komponiert haben, sich auszudrücken. Aber ich glaube, am Ende bleibt es was Besonderes zu wissen, dass diese Musik von Menschen komponiert ist und erschaffen ist. das auch, gerade dieses magische Gefühl in den Klöstern, dass die Musik, sie seit Jahrhunderten gesungen wird, und der sich seit Jahrhunderten Menschen ausdrücken. Ich weiß, ist wahrscheinlich so ein bisschen, das ist ja fast schon ein bisschen, wie sagt man denn da, Glaube oder wenig ... belegbar, was genau der Unterschied ist. Da ist man schnell bei so Begriffen, hat das eine Seele, hat das ein Herz, hat das ein Geist, Bewusstsein? Aber ich glaube doch, dass es für uns Menschen eine Rolle spielt. Und dass Kunst, die nicht von Menschen geschaffen ist, nicht das Gleiche transportiert, was Kunst transportiert, die von Menschen geschaffen ist. Eigentlich glaube ich, dass wir Menschen ein gutes Gespür dafür haben. Und dass die Bedrohung am Ende nicht so groß ist durch KI, weil wir uns besinnen werden und darauf kommen, dass es sich eben anders anfühlt. Und wie gesagt, da hab ich nur anekdotische Evidenz dafür bisher und auch nur aus meinem privaten Bereich und in Bezug auf Chatbots. Aber ich persönlich würde sagen, ich merk das schon deutlich, dass das abnimmt, dieses, boah, ich hab das Gefühl, da ist ja ein anderer Mensch. da fehlt halt doch was. Und es wird klarer, je mehr man das macht. Es hat ja auch da wieder viel zu tun mit der Wahrnehmung von Raum und von Nähe, weil menschlicher Kontakt ja auch einen physischen Aspekt hat. Die Frage ist natürlich, wird auch die KI im Zweifel irgendwie eine Art physischen Aspekt bekommen? Und ehrlicherweise scheint es ja nicht nur anekdotisch zu sein, sehr viele Menschen gerade oder vermehrt Menschen, Social Media beispielsweise, den Rücken kehren. Das erste Mal seit, weiß ich nicht, langer Zeit, dass da Zahlen rückläufig sind, weil die Sorge einfach besteht, ja gut, da kommunizieren bald einfach nur noch KIs miteinander.

Speaker 1: Und dann ist man Teil einer Kommunikationskette, in der man eigentlich nur noch Konsument ist von im Zweifel KI-Content. Aber das Gegenbeispiel dazu, und da sind wir übrigens wieder beispielsweise in der Kirche, es gab ja auch schon Versuche, beispielsweise die Beichte oder pastorale Begleitung mit KI zu simulieren. Und es gab auch Versuche, psychologisch mit KIs zu arbeiten. Es gibt auch genug Beispiele für große psychologische Chatbots. Menschen, die Chat GPT fragen, ob sie einen Ex-Partner nochmal anrufen sollen, die auch da in Dialog gehen, eine Art von Brainstorming vielleicht. Du, der schon vor sehr langer Zeit eine KI dazu gebracht hat, dass sie dir die Liebe gesteht. Also es scheint ja irgendwo ein Bedürfnis auch zu sein, diese Dinge auszuprobieren und dieses Gefühl von, ich brauche menschliche Nähe, da hinten anzustellen. dann, wenn man es immer mehr macht und es sich immer mehr verbessert, übernimmt das ja vielleicht auch einen Teil von unseres räumlichen und menschlichen Kommunikation, denkst du nicht? Also, ich weiß, gibt viele Menschen, glaub ich, die sagen, ich hab keinen Therapieplatz bekommen, ich sprech mit einem Chatbot. Wie du sagst, es gibt viele von diesen Tools, die Chatbots, die Therapie ersetzen sollen. Am Ende, glaub ich, gibt's verschiedene Bedürfnisse, die man in der Therapie sucht. glaube, lass uns brainstormen, bring mich auf die richtigen Fragen, ist ja durchaus ein legitimer Ansatz, auch von Malzotherapie-Richtungen zu sagen, es geht darum, dass du selbst drauf kommst und ich helfe dir nur, die richtigen Fragen zu stellen, das Richtige zu reflektieren. Und das glaube ich klar, das kann natürlich schon mit Chatbots auch gehen, weil man vielleicht auf Fragen kommt, die man sich nicht sofort stellt. Und es ist auch nicht verwunderlich, dass Chatbots sowas haben, natürlich solche Sachen auch ganz, ganz vielen Trainingsdaten sind. Also Protokolle von Therapiesitzungen, Anleitungen, theoretische ...

Speaker 2: Beschreibungen von Therapieansätzen und Psychologie und so weiter. Da gibt's genug in den Trainingsdaten. Deswegen ist es nicht verwunderlich, dass Chatbots da auch einen ganz vernünftigen Erfolg haben, Menschen zu überraschen mit Fragen, auf die sie selbst nicht gekommen sind. Und dann ist es, glaub ich, auch okay. Aber ich glaube auch, dass man das erkennen muss als Userin und User, sagen, mein Bedürfnis ist, einfach noch mal so bisschen Ping-Pong zu spielen. Und es geht mit einem Chatbot. Aber es gibt natürlich auch das Bedürfnis, mit einem echten Menschen zu tun zu haben. Ja, und am Ende, meine, was daraus auch erwächst aus diesem Wir-Teilen mit Chatbots, alle unsere Sorgen und Nöte, sind hinterher auch schlimme Folgen. Gerade gab es einen Bericht von einem Jugendlichen, der sich umgebracht hat, nachdem ein Chatbot ihm da zugeraten hat. Das kann natürlich auch zu ganz, ganz problematischen Outcomes führen, die man nicht übersehen darf. Ja, das ist interessant, weil natürlich auch ganz physische, ganz reale, nicht virtuelle, nicht digitale Aspekte dazu führen, dass man in eine Rolle kommt, in der KI so ausgeprägt ist, dass es eine Art von sozialer Struktur vielleicht ersetzen muss, weil man irgendwo allein gelassen ist. Das ist ja auch, also auf einem größeren Kontext kann man ja auch sagen, dass Social Media speziell Meter beispielsweise ja viel in der Strategie auch darauf angelegt ist zu sagen, wir vereinen Menschen nicht mehr so wie wir mit Facebook irgendwann mal gedacht haben, eigentlich separieren wir sie eher. Wir bringen sie eher dazu, dass sie Dinge konsumieren, als dass sie sich miteinander vernetzen und wir bieten ihnen dann beispielsweise über AI-Freunde oder wie auch immer eine Möglichkeit an diese Trennung oder diese Spaltung, in Anführungszeichen, die wir da vorgenommen haben, irgendwie zu ersetzen. Also man ist ja auch so bisschen schutzlos manchmal gegen diese Entwicklung, weil da so viel passiert, was man selbst in dem Moment vielleicht gar nicht versteckt. Ja, wobei ich bin da tatsächlich nicht so pessimistisch. Also gerade als Sie als Beispiel Social Media erwähnen, dass die Zahlen rückläufig sind. Und ich glaube, es ist noch nicht ganz klar, es gibt noch keine kausale Belege dafür, woran es eigentlich liegt. Aber meine persönliche Beobachtung ist schon auch, dass es einfach nicht mehr attraktiv ist, wenn man das Gefühl hat, das sind vor allem KI-generierte Inhalte. Das ist einfach nicht mehr interessant.

Speaker 2: Vorher war es klar, sprechen Menschen miteinander. Da hat man einen interessanten Streit beobachten können. Auch Videos, die Wahrscheinlichkeit ist groß. Bei jedem Einzelnen, das man anschaut, ist es KI-generiert. Damit hat es den Reiz verloren. Eigentlich glaube ich, dass das auch passieren wird mit Chatbot-Interaktionen, mit Therapie-Chatbots, mit all diesen Dingen. Natürlich wird es trotzdem immer Menschen geben, die da verwundbarer sind und die da vielleicht nicht Resilienz haben oder die Stärke, da wieder rauszukommen. ich bin eigentlich optimistisch, dass wir als Gesellschaft da schon die richtigen Schlüsse draus ziehen oder eben merken, es auf keinen Fall Ersatz für Freundschaft oder Liebe oder Partnerschaft oder Familie oder eben andere Menschen ist. Es ist interessant, dass du das gerade sagtest, weil es geht viel darum, auch fasziniert sein zu wollen und Menschen sind sehr neugierig und deswegen, ich habe da auch gar nicht so einen pessimistischen Blick drauf. Kürzlich gab es ein Erlebnis, es gibt ja jetzt dann wieder, wie jedes Jahr, den guten alten Coca-Cola-Truck, der durch unsere Bildschirme fährt und ich glaube schon letztes Jahr und auch dieses Jahr hat Coca-Cola da keinen großen Hehl draus gemacht, dass das KI-generierte Videos sind, wie dieser Truck eben durch eine Gegend fährt, durch die Gegend fährt. Ich stehe auf dem Schlauch. Wo fährt bei dir ein Chuck über den Bildschirm? Du kennst doch den Coca-Cola-Truck, oder?

Speaker 2: Ich... also vielleicht nicht? Das gibt's ja gar nicht. Der Coca-Cola-Truck ist doch das Werbesymbol von Coca-Cola zur Weihnachtszeit. Den kennst du nicht? Interessant. Dann erklär ich's dir kurz. Jedes Jahr zu Weihnachten fährt der Coca-Cola-Truck durch eine weihnachtliche Landschaft und meistens kommt der Weihnachtsmann da noch irgendwie mit rein und dann werden Coca-Cola-Flaschen in so einer weihnachtlichen Optik aus diesem Truck verteilt oder es gibt da irgendeine Geschichte, so eine werbliche Geschichte, die da rumgesponnen wird. Und das sind dann Videos, wo einem der Coca-Cola-Truck durch so eine winterliche Landschaft oder durch so eine Stadt irgendwie fährt. Das ist das, das Werbesymbol sozusagen von Coca Cola. Jedes Jahr wieder zur Weihnachtszeit. Ich würde mal vermuten, es gab ja auch mal diesen Mythos, dass der Weihnachtsmann eine Erfindung eigentlich ist von Coca Cola. Ja, gar nicht so abwegig. Genau, gar nicht so abwegig. Und seit einiger Zeit machen sie eben diese Videos mit diesem Truck, also mit KI. Und das interessante daran ist ja eigentlich, wird nirgendwo in den vorherigen Videos, sind die nicht wirklich durch eine winterliche Landschaft gefahren und Aber es musste eine extreme Arbeit gemacht werden, diese Illusion zu erstellen. Und ich hab bei mir bemerkt, und das bemerke ich bei anderen Werbungen und Videos genauso, in der Sekunde, wo ich weiß oder erkenne, selbst erkenne, dass es KI ist, ist diese Illusion für mich komplett gestorben. Weil ich es ist eigentlich exakt dasselbe, was passiert, wenn jemand ein Filmset aufbaut und einen Truck dadurch verlässt. Es ist dieselbe Illusion. Aber in der Sekunde ist jegliche Faszination für das, was ich sehe, einfach gestorben. Weil ich denke, das ist nicht plastisch. Der Raum, der da gezeigt wird, der ist nicht echt. Ja, es verliert wirklich den Wert. Das find ich schon auch verrückt. Mir geht's genauso. Nicht mit dem Coca-Cola-Chug, weil die kenn ich ja nicht. Aber wie gesagt, mit aller Art von Videos, die ich so sehe, es, sobald man eben nicht mehr darüber staunen kann, wie das jetzt gemacht worden ist oder wie sie das geschafft haben, sobald man so ja, gerne, ist alles KI generiert, ist es nicht mehr interessant. Die Frage ist natürlich jetzt bei so Sachen wie Werbung, ich glaube, ... Da spart ...

Speaker 2: Man hat so, so viel Geld, wenn man die Werbung so macht. Ich hab mit Sora rumexperimentiert, diese KI-Generierung von OpenAI, ja grade in Sora 2 immer noch nur invitation only ist und eigentlich auch nur in USA funktioniert. Da gibt man ja nur einen Textprompt ein und dann macht die ein Video draus und ich hab's gespielt. Da ist mir klar geworden, vermutlich schon, die Verlockung ist riesig und Werbung wird das als Erstes machen. Oder es ist ja auch schon so, solche Sachen eben KI zu generieren. Das find ich schon eine spannende Frage. ob das bei Werbung generell den Effekt hat, du beschrieben hast, weil dann wird vermutlich, wäre zumindest meine Hypothese, auch die Werbung an sich nicht mehr so gut funktionieren. Deine Lust auf Cola ist dann vielleicht auch nicht so groß wie sonst. Oder müsste man mal erforschen, was eigentlich genau im Gehirn passiert. Oder ob dein Gehirn halt sieht, Cola, doch, ist geil. Aber das ist schon eine spannende, offene Frage, wie das weitergeht. Weil bei Werbung, glaub ich, wird's den Schritt zurück nicht geben. Klar wird's wahrscheinlich immer noch ein bisschen ... Ja interessant, ja.

Speaker 2: teure, aufwendige Werbung geben, wahrscheinlich von Marken, die sich selber irgendwie aufs Visier schreiben. Wir sind hier die Wertigen, ja, bei uns nur Handarbeit, aber die allermeiste Werbung wird wahrscheinlich schon künftig KI-generiert sein. Ja, die Frage ist halt immer, und das ist dann der rote Faden zu dem Thema Raum, das was gezeigt wird, wenn der Raum da entscheidend ist, würde ich sagen, selbst in der Werbung ist immer wichtig, dass das ein echter Raum ist, also dass das echte Räumlichkeiten sind, dass das ein echter Wald ist, ein echtes Meer, echtes Zimmer. Lustigerweise, was ich grade bemerke, kommt jetzt wieder bei dem Thema an, was ist eigentlich echt, was ist ein echter Raum? Weil meine Hypothese ist ja nach meinen VR-Erlebnissen, dass ein virtueller Raum auch ein Raum ist. Ich glaub, es kommt eher auf die Menschen an. Vielleicht kann man einen virtuellen Raum nutzen, aber ich glaube, wichtig ist, dass echte Menschen beteiligt sind. Aber gute Frage, wenn der Cola-Chuck quasi in einen virtuellen Raum fahren würde, und da wären Avatarien drin, denen man weiß, es sind aber echte Menschen. Ich glaube, es wird einen Unterschied machen, ehrlich gesagt. Allerdings, dann ich frage natürlich, wie man beweisen kann, es echte Menschen sind. Dann geht's am Ende auch um Glaubwürdigkeit und Vertrauen wieder. Du eine Weiterführung dann von irgendeinem Greenscreen, der KI entwickelt Ja, genau.

Speaker 2: Genau, das akzeptieren wir ja auch. Das akzeptieren wir auch hier.

Speaker 1: Zum Abschluss habe ich noch kleine Kategorien, die ich gerne mit dir besprechen würde, nachdem wir wirklich einen fantastischen Streifzug durch die Welt der KI gemacht haben. Und zwar ist da einmal die Kategorie Artikel-Leiche.

Speaker 1: Und die Frage, welches Thema du vielleicht mal verfolgt hast, aber nie publiziert hast, gibt es sowas bei dir? Also es gibt eins, was aber noch nicht gestorben ist. glaub, die anderen hab ich zu gut verdrängt. Also eine, aber wie gesagt, eine Artikel, Leichen, die kann ich mal wieder beleben werden. Liegt grad in so einem Herz, ich vielleicht einfrieren lassen oder so. Ich hab sehr, sehr ausgiebig zu Chatchipiti und Medizin recherchiert und zu der Frage, kann Chatchipiti wirklich helfen bei Krankheiten? Weil das ist wirklich eine persönliche Erfahrung. Haha.

Speaker 2: Ich hab da manchmal ganz gute Ideen bekommen. Ich weiß, es ist gar nicht ratsam und gar nicht schlau, alles seine Leiden zu diktieren. Es ist einfach mal doch ganz geschickt. Ein Erlebnis war im Ausland, ich versteh die Sprache nicht, war gar nichts Schlimmes, aber musste zum Arzt Medikamente nehmen und hab dann Bergmedikamente in der fremden Sprache, die ich nicht verstehen kann. Dann hab ich ein Foto gemacht und gefragt, ist das? Wie soll ich's einnehmen? Was hilft gegen meine Symptome? Das hat geholfen, ein bisschen zu verstehen, was passiert. Ja, So, genau. aus dieser Erfahrung heraus dachte ich, es kann schon passieren, dass so ein Chatbot, weil der eben in seinen Trainingsdaten eine große Menge an interessanten Daten aus der Medizin hat und an Diagnosen und an Problemen, Beschwerden von Menschen und so weiter, dass der eben da Zusammenhänge knüpft, die Menschen nicht so einfach finden. Und dann habe ich einen Protagonisten gefunden, der genau so ein Thema hatte. hatte, es ist nicht so ganz klar, also so was wie Long Covid, oder damit hat angefangen. Aber hatte irgendwie Problem, was ihn, ja, ohne ... unerwartet müde und abgeschlagen gemacht hat. Also, das klang wirklich so, als wenn der sich über viele Monate kaum aufstehen konnte und so weiter. Und dann, dass ja oft bei solchen Sachen Ärzte halt nichts gefunden haben. Und er hat auch so einen Schwindel. Also, das sind ja auch typische Dinge, wo es ultra schwierig ist, rauszukriegen, was eigentlich los ist. Der ist von Arzt zu Arzt getingelt, es kam nichts raus. Natürlich hat er angefangen, mit Chet Chippity zu sprechen. Er die Diagnosen reingeladen, er bekommen hat. Dann meinte Chet Chippity, ich brauch diesen und jenen Blutwert. Geh bitte mal los, lass dich testen und gib mir den Wert. Er hat angefangen, er wird überzeugt, ich brauch dieses Ergebnis für meinen Chatbot. Manche haben das bereit, will ich mitgemacht. Klar, haben die Dinge gemacht, die sind am Rande sinnvoll gehalten worden. Er hat's selber gezahlt. Aber am Ende hat er dann ... Diagnose ... Ich glaub nicht, er hat nicht mal einen Diagnose, sondern nur ein Medikament ausgespuckt bekommen von Chech GPT, er gesagt hat, versuch mal das. Dann ist er wieder zu seiner Ärztin und hat gesagt, ich möchte das, das war verschreibungspflichtig, die war skeptisch. Aber hat gesagt, weil sie sich wohl gut kennen, schon, sie ihm vertraut, und es auch nicht gefährlich war, hat gesagt ...

Speaker 2: und hier probier's halt, hier ist ein Privatrezept und der hat das genommen und hat geholfen. Und das ist natürlich jetzt trotzdem, muss man echt aufpassen mit solchen Geschichten in einmaliger Fall und das auch genauso gut an irgendwas anderem liegen, ja, es kann aber einfach Zufall sein. dann gab es immer eine medizinische Betreuung im Rahmen der Sankt. Ja genau, musste immer diesen Schritt gehen, es musste nochmal jemand das Feedbacken und dann wird keiner. Also ich glaube, wenn Chachapiti gesagt hätte, ja am besten Adalaz, dann wäre es schwer geworden. Das ist wirklich auch wichtig.

Speaker 2: Und Protagonist ist auch durchaus ein kritisch denkender, schlauer Mensch. Und der hat auch gesagt, ich war für mich auch bisschen komisch, mit dem ... zuerst hinzugehen zu sagen, hier, meine KI hat gesagt, aber ... Gleichzeitig war er halt verzeifelt genug, weil es ging ihm wirklich schlecht. Aber all diese Dinge, und das ist, glaub ich, der Grund, warum der Artikel noch nicht fertig ist, ich damit hadere, weil die Gefahr natürlich auch groß ist, dass man anderen verzweifelten Menschen so eine falsche Hoffnung macht. dass man den Eindruck erweckt, KI kann das tatsächlich, aber es kann genauso gut einfach ein einmaliger Fall oder ein Zufall sein. Vielleicht hat er auch was anderes in seinem Leben geändert und weiß es nicht. Deswegen scheint es nur, als hätte es Medikamente geholfen und so weiter. Deswegen überlege ich gerade noch, wie man das aufschreiben kann, dass all diese Sachen abgedeckt sind. Das Problem ist schon, dass Ärztinnen und Ärzte nicht so gern drüber reden. Ich suche schon Erste und Erste, die das aus ihrer Sicht kommentieren. Weil natürlich schon viele sagen, die nutzen ja auch KI. Das glaub ich auch. glaube, dass Erste Erste Chatbots nutzen. Weil sie manchmal doch auch auf Ideen kommen, auf die sie selber nicht kamen. Weil natürlich die massenhaft Daten dahinter liegen, die diese Korrelationen und Zusammenhänge irgendwie auch ausdrücken. Aber es ist ein heißes Thema. Deswegen es schwierig, andere zu finden. Deswegen liegt ja noch meiner Eisdrohre die Recherche. Das verstehe ich. Das ist nicht einfach. Ich bin sehr gespannt, was daraus wird. Aber faszinierendes Theater. Vielleicht ich dann wieder zusammenkommen.

Speaker 1: Genau, Eva, das hat große Freude gemacht. Das war wahnsinnig interessant. Toll, dass du dir die Zeit genommen hast und dass du dabei warst im Forschungsbriefing. Ich fühle mich besser gebrieft. Das war wahnsinnig interessant. Ja, gerne. Und ich wünsche dir mit deiner Arbeit an den Gregorianischen Gesängen ganz viel Freude und ja, bin sehr gespannt auf die Erkenntnisse. Ich fand's super interessant mit dir. Ich find's so cool, dass wir dieses Musikthema so unverhofft gefunden haben. Ich hab ja nicht gewusst, dass du einen musikalischen Hintergrund hast. faszinierend. Ich bin jetzt schon sehr gespannt auf alles, da kommt. Jetzt muss ich mich noch tiefer reinknien, die hohe Latte nicht zu reißen, die ich nur gerade hochgehängt habe. hatte mich nicht als Queer Review.

Speaker 2: Die schickst die erst, wenn's voll öffentlich ist. ganz herzlichen Dank, es war eine große Freude. Danke dir, mach's gut und bis zum nächsten Mal vielleicht. Das ist Stand der Forschung und ihr hört das Forschungsbriefing. Mein Name ist Jonas Ross und ich freue mich, dass Sie dabei waren. Ich hoffe, dass sind Sie auch beim nächsten Mal. Und wenn Ihnen der Podcast gefallen hat, dann abonnieren Sie diesen Podcast und verpassen Sie keine der weiteren Folgen. Und noch besser, lassen Sie gerne eine Bewertung da. Vielen Dank fürs Zuhören und bis zum nächsten Mal.

Speaker 1: Stand der Forschung.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.