Letting AI compete with my music in Elbphilharmonie
- Mathias Rehfeldt
- 5 hours ago
- 16 min read
Transcript for Accessibility
AI vs Human Composition: Can Artificial Intelligence Write Classical Music?
When AI music first appeared, the internet seemed flooded with it overnight. Suddenly, music could be generated in seconds, and for many composers, that was a deeply unsettling moment. It certainly was for me.
As a composer, I had spent around twenty years learning how to write music. Then, all at once, machines seemed able to produce something similar almost instantly. That was not just surprising. It was frightening. It raised a very uncomfortable question: if AI can generate music so quickly, what does that mean for human composers, especially in classical music?
This question stayed with me for a long time. Earlier this year, I spoke with a friend who created a classical music award. Every year, the winners perform in a concert at the Elbphilharmonie in Hamburg, one of the most famous concert halls in Germany. Surrounded by excellent musicians in such an important venue, I found myself talking more and more about my fears regarding artificial intelligence and music.
At some point, the idea emerged that perhaps the best way to deal with this fear was not to avoid it, but to confront it directly.
So I suggested an experiment.
My idea was simple: I would compose a piece, and artificial intelligence would compose another one. Then both pieces would be performed live in concert, without the audience knowing which was written by a human and which by AI. The audience would have to decide for themselves.
That was the beginning of a musical standoff between human composition and artificial intelligence.
How AI Music Works Compared to Human Composition
This project also forced me to think more clearly about how AI actually creates music.
A human composer usually works conceptually. We think in long forms, in tension and release, in structure, development, contrast, memory, gesture, and meaning. A melody may be introduced early on and transformed later. A harmony may foreshadow something that only becomes clear much later in the piece. Classical composition often depends on this larger narrative thinking.
AI works differently.
AI music generation is fundamentally statistical. It analyzes enormous amounts of existing music and predicts what sound is most likely to come next, moment by moment. This makes it very powerful in musical styles that are based heavily on expectation and pattern recognition, especially many forms of pop, production, and background music.
But classical music is different. It often depends less on immediate plausibility and more on long-range dramaturgy. It tells a story over time. And that was exactly where I suspected AI might still struggle.
To make the comparison fair, I chose a topic that has already been explored many times in music history: The Four Seasons.
This gave AI an advantage, because it had plenty of stylistic material to draw from. At the same time, the subject is vivid and accessible for listeners. Everyone has an image of spring, summer, autumn, and winter. That makes it easier for an audience to connect with both pieces immediately.
The Ethical Problem of AI Music
There is another issue that cannot be ignored: is it ethically acceptable to use AI to compose music at all?
That question still bothers me.
AI systems are trained on vast amounts of existing material. In a sense, they depend entirely on what human beings have already created. So where is the line between inspiration, imitation, transformation, and appropriation? If AI music is built from patterns found in existing works, is it creating something new or simply recycling what was already there in a different form?
I do not claim to have the answer.
But I think it is one of the most important questions in the current debate around AI in music. If you are a composer, musician, listener, or someone interested in artificial intelligence and creativity, this is not a theoretical issue. It affects how we think about authorship, originality, and artistic value.
The Practical Problem: AI Could Create Audio, But Not a Score
One of the first practical challenges in this project was that AI could generate music, but it could not provide a proper musical score.
And for a live classical performance, that is a major problem.
So I asked my friend Tim to transcribe the AI-generated piece into notation so it could actually be rehearsed and performed by real musicians. That alone already revealed one of the central limitations of AI music in a classical context: it could produce sound, but it could not yet function like a composer in the full professional sense.
Another major issue was form and continuity.
AI struggled to shape larger emotional transitions. If we wanted to move from spring to summer, for example, the music needed to change character in a convincing way. But the AI could not really do that. Instead of developing naturally, it tended to stay trapped in a single mood.
To solve this, we generated four separate tracks and combined them.
But that led to the next problem: inconsistency.
AI can maintain some internal coherence within one generated output. But once you split the process across multiple generations, it loses continuity. It forgets melodies, gestures, and musical identity. Even if you describe what it did before and reference earlier material, it still does not truly remember it in the way a human composer does.
That became the central weakness of the AI piece: consistency over time.
So I began asking myself another question: would the audience actually notice?
Writing a Human Piece Against AI
While Tim was transcribing the AI piece, I spent the entire summer composing my own work for the project.
My strategy was very clear: I wanted to write precisely where I believed AI was weakest.
That meant using polyphony, more complex textures, extended instrumental techniques, and details that do not follow the most statistically expected path. If AI predicts what is most likely to happen next, then one way for a human composer to distinguish himself is to do the opposite in a meaningful and convincing way.
In other words, I was not only writing a piece of music. I was writing a response to artificial intelligence.
The goal was not just to make something beautiful. It was to make something unmistakably human.
The Journey to Hamburg and an Unexpected Rehearsal Crisis
After months of writing, transcribing, and preparing, we finally traveled to Hamburg for the concert.
With me were Tim and my dear friend Matias, who played the violin in the project. We stayed in an extraordinary castle about one hour outside Hamburg. It was around 150 years old, but the interior was a fascinating mixture of modern and classical design.
The place had its own bizarre story. There was even a fake Steinway piano there. Apparently, the castle had once belonged to a man who was often away, and while he was gone, his girlfriend sold some of his expensive belongings, including his real Steinway grand piano, and replaced them with cheap substitutes. He only discovered this when the castle was sold.
It felt surreal, but charming. And then reality hit.
We had only one evening to rehearse.
That was already difficult enough, especially because I had written the piece a little harder than I probably should have, not knowing rehearsal time would be so limited. But then things got worse: one of the players was missing.
At first, nobody knew where he was. Then we learned that his train had been delayed so severely that he was still in Berlin, about three hours away. Inside, I completely panicked. We had not rehearsed the piece once with the full ensemble, and the concert was the very next day.
We did what we could and rehearsed while imagining the missing part. But of course, that is not the same as actually hearing the full texture. Eventually, we gave up for the evening and went to dinner.
And then, finally, the door opened and our missing player arrived.
Because it was already late and he was exhausted, we scheduled the first full rehearsal for the next morning, the same day as the concert.
So yes, I barely slept that night.
Dress Rehearsal, Elbphilharmonie, and the Live Experiment
The next morning, at 9:00, we had our dress rehearsal.
And to my enormous relief, it worked.
My piece worked, the AI piece worked, and the ensemble held together. For the first time, I could breathe again.
After that, we went straight to the Elbphilharmonie.
The building is famous not only because it is one of Germany’s great concert halls, but also because it took an incredible amount of time and money to build. For years, many people believed it might never be finished. But once you enter it, you immediately understand why it became so iconic. Everything about it feels remarkable.
We set up cameras, met the technicians, rehearsed once more, and then the concert began.
Before the performance, I spoke briefly with the audience and explained the basic idea of the project. Then both pieces were performed live.
That was the real test.
Not in theory, not online, not as an abstract debate on social media, but in a room with real listeners, live musicians, and a direct comparison between AI-generated and human-composed classical music.
The Audience Vote: Could People Tell the Difference?
Strangely enough, I felt relatively calm while conducting both pieces.
The real stress began when the voting started.
Because in that moment, I felt that I was about to learn something deeply personal. I honestly told myself that within a few minutes I might find out whether I should start looking for another profession, or whether human composers still had something essential that AI could not replicate.
Thankfully, most of the audience was on my side.
When they were asked which piece they believed had been written by a human and which by AI, the majority identified them correctly.
That was an enormous relief.
At the same time, about one third of the audience got it wrong.
And that is the part that still stays with me.
What Does This Mean for the Future of AI in Classical Music?
So what should we conclude from this experiment?
On the one hand, the audience was still largely able to sense the difference between AI-generated music and human composition. That suggests that classical music still contains qualities that artificial intelligence cannot fully reproduce, especially long-range structure, deeper intentionality, and a sense of artistic necessity.
On the other hand, one third of the audience misidentified the pieces.
And AI is improving constantly.
So it is reasonable to ask whether these differences will become harder and harder to detect in the future. Will AI eventually overcome its current weaknesses? Will it learn to imitate musical development, formal continuity, and expressive complexity more convincingly? And if it does, what will remain distinctively human?
I think one answer may lie in live performance.
Even if AI becomes increasingly capable of generating convincing music, there is something it probably cannot replace: the human presence of live musicians on stage. People do not want to see a computer perform in the same way they want to witness artists take risks, shape sound in real time, and share a moment with an audience.
That may become even more valuable in the years ahead.
At the same time, I do believe there is real danger in areas such as production music, background music, radio music, and other functional forms of composition. These are precisely the fields where fast, statistically convincing output may become economically irresistible.
So yes, there is reason to be concerned.
But there is also reason to keep creating.
Why This Experiment Matters
This project was not just about asking whether AI can compose classical music. It was about confronting a fear that many musicians and composers are already feeling. It was about testing artificial intelligence not in a laboratory, but in a concert hall. And it was about asking whether listeners can still hear the difference between algorithmic music generation and human artistic intention.
For me, the answer was encouraging, but not entirely comforting.
Human composition still matters. Human performers still matter. Human imagination still matters.
But the pressure is real, and the conversation is only beginning.
If you are interested in AI music, classical composition, the future of musicians, live concert culture, or the changing relationship between technology and creativity, this experiment raises exactly the questions we need to keep asking.
And I suspect we will be asking them for a long time.
Deutsche Übersetzung
KI gegen menschliche Komposition: Kann künstliche Intelligenz klassische Musik schreiben?
Als KI-Musik zum ersten Mal auftauchte, schien das Internet plötzlich damit überflutet zu sein. Auf einmal konnte Musik in Sekunden erzeugt werden, und für viele Komponistinnen und Komponisten war das ein zutiefst verstörender Moment. Für mich war es das auf jeden Fall.
Ich hatte als Komponist ungefähr zwanzig Jahre damit verbracht, das Schreiben von Musik zu lernen. Und dann wirkten Maschinen plötzlich so, als könnten sie in wenigen Sekunden etwas Ähnliches hervorbringen. Das war nicht nur überraschend. Es war beängstigend. Und es führte zu einer sehr unangenehmen Frage: Wenn KI so schnell Musik erzeugen kann, was bedeutet das für menschliche Komponisten, gerade in der klassischen Musik?
Diese Frage ließ mich lange nicht los. Anfang dieses Jahres sprach ich mit einer Freundin, die einen Preis für klassische Musik ins Leben gerufen hat. Jedes Jahr gibt es ein Konzert mit allen bisherigen Preisträgern in der Elbphilharmonie in Hamburg, einem der bekanntesten Konzertsäle Deutschlands. Umgeben von großartigen Musikerinnen und Musikern an einem so bedeutenden Ort sprach ich immer intensiver über meine Sorgen im Zusammenhang mit künstlicher Intelligenz und Musik.
Irgendwann entstand die Idee, dass man dieser Angst vielleicht nicht ausweichen, sondern sich ihr direkt stellen sollte.
Also schlug ich ein Experiment vor.
Meine Idee war einfach: Ich schreibe ein Stück, und die künstliche Intelligenz schreibt ebenfalls eines. Dann werden beide Werke live im Konzert aufgeführt, ohne dass das Publikum weiß, welches Stück vom Menschen und welches von der KI stammt. Das Publikum sollte selbst entscheiden.
So begann ein musikalisches Duell zwischen menschlicher Komposition und künstlicher Intelligenz.
Wie KI-Musik im Vergleich zur menschlichen Komposition funktioniert
Dieses Projekt zwang mich auch dazu, klarer darüber nachzudenken, wie KI eigentlich Musik erzeugt.
Ein menschlicher Komponist arbeitet normalerweise konzeptionell. Wir denken in großen Formen, in Spannung und Auflösung, in Struktur, Entwicklung, Kontrast, Erinnerung, Geste und Bedeutung. Eine Melodie kann früh eingeführt und später verwandelt werden. Eine Harmonie kann etwas andeuten, das sich erst viel später im Stück erschließt. Klassische Komposition lebt oft genau von diesem Denken in größeren Zusammenhängen.
KI funktioniert anders.
KI-Musikgenerierung ist im Kern statistisch. Sie analysiert riesige Mengen bereits existierender Musik und sagt dann für jeden Moment voraus, welcher Klang als Nächstes am wahrscheinlichsten ist. Das macht sie sehr stark in musikalischen Bereichen, die stark auf Erwartung und Mustererkennung beruhen, besonders in vielen Formen von Popmusik, Produktionsmusik und Hintergrundmusik.
Aber klassische Musik ist anders. Sie beruht oft weniger auf unmittelbarer Plausibilität als auf langfristiger Dramaturgie. Sie erzählt über Zeit hinweg eine Geschichte. Und genau dort vermutete ich, dass KI noch Schwierigkeiten haben könnte.
Um den Vergleich fair zu machen, wählte ich ein Thema, das in der Musikgeschichte schon oft behandelt wurde: die vier Jahreszeiten.
Damit hatte die KI sogar einen Vorteil, weil sie auf sehr viel stilistisches Material zurückgreifen konnte. Gleichzeitig ist das Thema anschaulich und für das Publikum sofort zugänglich. Jeder hat ein Bild von Frühling, Sommer, Herbst und Winter im Kopf. Dadurch können Zuhörerinnen und Zuhörer sich sofort mit beiden Stücken verbinden.
Das ethische Problem von KI-Musik
Es gibt noch eine weitere Frage, die man nicht ignorieren kann: Ist es ethisch überhaupt vertretbar, KI zum Komponieren von Musik zu verwenden?
Diese Frage beschäftigt mich bis heute.
KI-Systeme werden mit riesigen Mengen bereits existierenden Materials trainiert. In gewisser Weise hängen sie vollständig von dem ab, was Menschen vorher geschaffen haben. Wo verläuft also die Grenze zwischen Inspiration, Nachahmung, Transformation und Aneignung? Wenn KI-Musik aus Mustern entsteht, die in bereits existierenden Werken gefunden wurden, schafft sie dann wirklich etwas Neues, oder recycelt sie nur Vorhandenes in anderer Form?
Ich behaupte nicht, darauf eine Antwort zu haben.
Aber ich halte das für eine der wichtigsten Fragen in der aktuellen Debatte über KI in der Musik. Wenn man Komponist, Musiker, Hörer oder einfach an künstlicher Intelligenz und Kreativität interessiert ist, dann ist das keine theoretische Frage. Sie betrifft direkt unser Verständnis von Autorschaft, Originalität und künstlerischem Wert.
Das praktische Problem: KI konnte Audio erzeugen, aber keine Partitur schreiben
Eine der ersten praktischen Hürden in diesem Projekt war, dass KI zwar Musik erzeugen konnte, aber keine richtige Partitur dazu liefern konnte.
Und für eine klassische Live-Aufführung ist das ein massives Problem.
Deshalb bat ich meinen Freund Tim, das KI-generierte Stück zu transkribieren, damit es überhaupt von realen Musikerinnen und Musikern geprobt und aufgeführt werden konnte. Schon das zeigte eine zentrale Grenze von KI-Musik im klassischen Kontext: Sie konnte Klang erzeugen, aber noch nicht im vollen professionellen Sinn wie ein Komponist funktionieren.
Ein weiteres großes Problem war Form und Kontinuität.
Die KI tat sich schwer damit, größere emotionale Übergänge zu gestalten. Wenn wir zum Beispiel vom Frühling in den Sommer wechseln wollten, musste sich auch die musikalische Stimmung überzeugend verändern. Aber genau das konnte die KI nicht wirklich. Statt sich organisch zu entwickeln, blieb sie meist in derselben Grundstimmung stecken.
Um das zu lösen, erzeugten wir vier verschiedene Tracks und setzten sie zusammen.
Doch dadurch entstand sofort das nächste Problem: Inkonsistenz.
Innerhalb eines einzelnen generierten Outputs kann KI eine gewisse innere Kohärenz halten. Aber sobald man den Prozess auf mehrere Generierungen verteilt, verliert sie diese Kontinuität. Sie vergisst Melodien, Gesten und musikalische Identität. Selbst wenn man ihr beschreibt, was sie vorher gemacht hat, und auf früheres Material verweist, erinnert sie sich nicht wirklich so, wie ein menschlicher Komponist es tun würde.
Das wurde zur zentralen Schwäche des KI-Stücks: fehlende Konsistenz über längere Zeit hinweg.
Und damit stellte sich für mich die nächste Frage: Würde das Publikum das überhaupt bemerken?
Ein menschliches Stück gegen KI schreiben
Während Tim das KI-Stück transkribierte, verbrachte ich den ganzen Sommer damit, mein eigenes Werk für dieses Projekt zu komponieren.
Meine Strategie war sehr klar: Ich wollte genau dort schreiben, wo ich die Schwächen der KI vermutete.
Das bedeutete Polyphonie, komplexere Texturen, erweiterte Spieltechniken und Details, die nicht einfach dem statistisch Erwartbaren folgen. Wenn KI vorhersagt, was als Nächstes am wahrscheinlichsten ist, dann besteht eine Möglichkeit für den Menschen darin, genau das Gegenteil zu tun, und zwar auf eine sinnvolle und überzeugende Weise.
Mit anderen Worten: Ich schrieb nicht nur ein Musikstück. Ich schrieb eine Antwort auf künstliche Intelligenz.
Das Ziel war nicht nur, etwas Schönes zu schaffen. Es sollte etwas unverkennbar Menschliches sein.
Die Reise nach Hamburg und eine unerwartete Probenkrise
Nach Monaten des Schreibens, Transkribierens und Vorbereitens reisten wir schließlich für das Konzert nach Hamburg.
Mit dabei waren Tim und mein lieber Freund Matias, der in diesem Projekt Violine spielte. Wir wohnten in einem außergewöhnlichen Schloss etwa eine Stunde außerhalb von Hamburg. Es war ungefähr 150 Jahre alt, innen aber eine faszinierende Mischung aus modernem und klassischem Stil.
Dieser Ort hatte auch seine eigene absurde Geschichte. Dort stand sogar ein falscher Steinway-Flügel. Offenbar gehörte das Schloss einmal einem Mann, der oft nicht zu Hause war, und während seiner Abwesenheit verkaufte seine Freundin einige seiner teuren Besitztümer, darunter seinen echten Steinway-Flügel, und ersetzte sie durch billige Varianten. Bemerkt hat er das angeblich erst, als das Schloss verkauft wurde.
Das Ganze war surreal und charmant zugleich. Und dann holte uns die Realität ein.
Wir hatten nur einen einzigen Abend zum Proben.
Das war ohnehin schon schwierig, vor allem weil ich das Stück etwas schwerer geschrieben hatte, als ich es vermutlich getan hätte, wenn ich von der knappen Probenzeit gewusst hätte. Aber dann wurde es noch schlimmer: Einer der Spieler fehlte.
Zunächst wusste niemand, wo er war. Dann erfuhren wir, dass sein Zug so stark verspätet war, dass er noch immer in Berlin war, also ungefähr drei Stunden entfernt. Innerlich geriet ich völlig in Panik. Wir hatten das Stück noch kein einziges Mal mit dem vollständigen Ensemble geprobt, und am nächsten Tag war bereits das Konzert.
Wir taten, was wir konnten, und probten, indem wir uns die fehlende Stimme dazudachten. Aber natürlich ist das nicht dasselbe, wie den vollständigen Klang wirklich zu hören. Irgendwann brachen wir für den Abend ab und gingen zum Abendessen.
Und dann öffnete sich endlich die Tür und unser fehlender Musiker stand dort.
Weil es schon sehr spät war und er erschöpft war, vereinbarten wir die erste vollständige Probe für den nächsten Morgen, also ausgerechnet für den Tag des Konzerts.
Ja, ich habe in dieser Nacht kaum geschlafen.
Generalprobe, Elbphilharmonie und das Live-Experiment
Am nächsten Morgen hatten wir um 9 Uhr Generalprobe.
Und zu meiner riesigen Erleichterung funktionierte es.
Mein Stück funktionierte, das KI-Stück funktionierte, und das Ensemble hielt zusammen. Zum ersten Mal konnte ich wieder aufatmen.
Danach fuhren wir direkt zur Elbphilharmonie.
Dieses Gebäude ist in Deutschland nicht nur deshalb berühmt, weil es ein großartiger Konzertsaal ist, sondern auch, weil sein Bau unglaublich viel Zeit und Geld gekostet hat. Jahrelang dachten viele, es würde vielleicht nie fertig werden. Aber wenn man hineingeht, versteht man sofort, warum es zu einem solchen Wahrzeichen geworden ist. Alles daran wirkt außergewöhnlich.
Wir bauten Kameras auf, lernten die Techniker kennen, probten noch einmal und dann begann das Konzert.
Vor der Aufführung sprach ich noch kurz mit dem Publikum und erklärte die Grundidee des Projekts. Dann wurden beide Stücke live gespielt.
Das war der eigentliche Test.
Nicht in der Theorie, nicht online und nicht als abstrakte Debatte in sozialen Medien, sondern in einem Raum mit echten Zuhörern, echten Musikerinnen und Musikern und einem direkten Vergleich zwischen KI-generierter und menschlich komponierter klassischer Musik.
Die Abstimmung des Publikums: Konnten die Menschen den Unterschied hören?
Merkwürdigerweise war ich beim Dirigieren der beiden Stücke relativ ruhig.
Der eigentliche Stress begann erst mit der Abstimmung.
Denn in diesem Moment hatte ich das Gefühl, dass ich gleich etwas sehr Persönliches erfahren würde. Ich sagte mir ernsthaft, dass ich in wenigen Minuten vielleicht wissen würde, ob ich mir einen anderen Beruf suchen sollte oder ob menschliche Komponisten doch noch etwas besitzen, das KI nicht nachbilden kann.
Zum Glück stand der Großteil des Publikums auf meiner Seite.
Als gefragt wurde, welches Stück wohl von einem Menschen und welches von einer KI geschrieben worden sei, lag die Mehrheit richtig.
Das war eine enorme Erleichterung.
Gleichzeitig lag aber ungefähr ein Drittel des Publikums falsch.
Und genau das ist der Teil, der mich bis heute beschäftigt.
Was bedeutet das für die Zukunft von KI in der klassischen Musik?
Was lässt sich also aus diesem Experiment ableiten?
Einerseits konnte das Publikum den Unterschied zwischen KI-generierter Musik und menschlicher Komposition größtenteils noch erkennen. Das spricht dafür, dass klassische Musik weiterhin Eigenschaften enthält, die künstliche Intelligenz noch nicht vollständig reproduzieren kann, besonders langfristige Struktur, tiefere Intentionalität und ein Gefühl künstlerischer Notwendigkeit.
Andererseits hat ein Drittel des Publikums die Stücke falsch eingeordnet.
Und KI verbessert sich ständig.
Deshalb ist es durchaus berechtigt zu fragen, ob diese Unterschiede in Zukunft immer schwerer zu erkennen sein werden. Wird KI ihre derzeitigen Schwächen überwinden? Wird sie lernen, musikalische Entwicklung, formale Kontinuität und expressive Komplexität überzeugender zu imitieren? Und wenn ja, was bleibt dann eigentlich noch unverwechselbar menschlich?
Ich denke, eine mögliche Antwort liegt in der Live-Aufführung.
Selbst wenn KI immer überzeugender klingende Musik erzeugen kann, gibt es etwas, das sie wahrscheinlich nicht ersetzen kann: die menschliche Präsenz von Musikerinnen und Musikern auf der Bühne. Menschen wollen nicht in derselben Weise einem Computer beim Aufführen zusehen, wie sie Künstler erleben wollen, die Risiken eingehen, Klang im Moment formen und einen Augenblick mit dem Publikum teilen.
Das könnte in den kommenden Jahren sogar noch wichtiger werden.
Gleichzeitig glaube ich aber durchaus, dass es eine reale Gefahr gibt, besonders in Bereichen wie Produktionsmusik, Hintergrundmusik, Radiomusik und anderen funktionalen Formen von Komposition. Genau dort könnte schnell erzeugter, statistisch überzeugender Output wirtschaftlich extrem attraktiv werden.
Ja, es gibt also guten Grund zur Sorge.
Aber es gibt genauso guten Grund, weiterzumachen.
Warum dieses Experiment wichtig ist
Bei diesem Projekt ging es nicht nur um die Frage, ob KI klassische Musik komponieren kann. Es ging darum, sich einer Angst zu stellen, die viele Musikerinnen, Musiker und Komponierende längst spüren. Es ging darum, künstliche Intelligenz nicht im Labor, sondern im Konzertsaal zu testen. Und es ging um die Frage, ob Zuhörer noch immer den Unterschied zwischen algorithmischer Musikgenerierung und menschlicher künstlerischer Absicht hören können.
Für mich war die Antwort ermutigend, aber nicht vollständig beruhigend.
Menschliche Komposition ist weiterhin wichtig. Menschliche Aufführung ist weiterhin wichtig. Menschliche Vorstellungskraft ist weiterhin wichtig.
Aber der Druck ist real, und das Gespräch hat gerade erst begonnen.
Wer sich für KI-Musik, klassische Komposition, die Zukunft von Musikerinnen und Musikern, Live-Kultur oder das sich verändernde Verhältnis von Technologie und Kreativität interessiert, für den stellt dieses Experiment genau die Fragen, die wir weiter stellen müssen.
Und ich vermute, dass wir sie noch sehr lange stellen werden.
Meta Description EN
A composer tests AI against human creativity in a live classical music experiment at the Elbphilharmonie, asking whether audiences can hear the difference.
Meta Description DE
Ein Komponist testet KI gegen menschliche Kreativität in einem Live-Experiment mit klassischer Musik in der Elbphilharmonie und fragt, ob das Publikum den Unterschied hören kann.
Comments