Christoph Geisselhart: Dave, kannst du dich erinnern, wie deine Zusammenarbeit mit Pete begann?
Dave Snowdon: Ich traf Pete erstmals im November 2004 durch Lawrence Ball, der gerade mit Pete an einem von dessen Projekten gearbeitet hatte („The Boy Who Heard Music“). Pete hatte Lawrence auch gefragt, ob er nicht einen weiten Versuch unternehmen wolle, jene spezielle Musikerzeugungsmethode zu verwirklichen, die er in der Novelle beschrieben hatte und die natürlich von „Lifehouse“ vorgegeben war. Lawrence empfahl mich als jemanden, mit dem Pete in technischer Hinsicht zusammen arbeiten könne.
Dann bist du also nicht jener bislang unbekannte Computerfachmann, von dem Pete schon 1999 berichtete, dass er ihm bei der Umsetzung seines „Lifehouse“-Konzerts helfen werde?
Dave: Nein, diese Aussage Petes bezieht sich auf jemand anderen. Leider kann ich dir nicht verraten, wer es war, das wäre Vertrauensbruch.
Wann war die Methode – also deine Software – erstmals einsetzbar?
Dave: Das erste Musikstück im Web wurde am 27. August 2008 komponiert. Eigentlich hatten wir das erste mit der Lifehouse-Methode erzeugte Stück schon im Januar 2006 fertig, aber das erforderte noch viel manuelle Arbeit meinerseits – ich musste die Ausgabe durch die verschiedenen Komponenten des Systems noch manuell manipulieren. Wir hatten damals noch keine brauchbare Schnittstelle. Im Januar 2006 erzeugten wir lediglich MIDI-Daten, die Lawrence auf seinem Synthesizer nachspielte, um ihre musikalische Qualität zu überprüfen. Wir hatten es erst ein paar Monate zuvor geschafft, aus den MIDI-Daten qualitativ hochwertige Audiodateien herzustellen. Wir machten also einige Testdurchläufe, im Oktober 2006 glaube ich, aber die Software war noch nicht in der Lage, mit einer größeren Zahl von Benutzern gleichzeitig umzugehen – bis kurz vor der Einführung im April 2007.
In den Neunzigern hattest Du bereits mit Lawrence Ball ein Programm entwickelt, das Visual Harmony hieß und das die minimalistische Musik bei den Festivals in grafische Darstellungen umwandelte; Richard Evans hat dieses Programm später für die Gestaltung des Who-Albums „Endless Wire“ verwendet. Hatte Pete eure Konzerte mit Visual Harmony gesehen, und hast du auch Teile aus diesem Programm für die „Lifehouse“-Software verwendet?
Dave: Lawrence veranstaltete, wie gesagt, ein jährliches Festival, das „Planet Tree Music Festival“ heißt. Ich glaube, Pete sorgte für Geldgeber oder sponserte das Festival einige Jahre lang – Lawrence sollte dazu mehr Licht in die Sache bringen können.
Lawrence Ball: Pete und ich wurden durch Terry Riley zusammen geführt, den ich 1998 nach London zu meinem Festival brachte. Damals sponserte Pete das Festival zum ersten Mal. Wir hatten nur telefonisch und per E-Mail Kontakt, aber 2003 lud Pete mich ein, die Methode für ihn zu entwickeln. Er unterstützte mich auch, das „Lifehouse“-Doppelalbum für iTunes zu machen, inzwischen ist es dort erhältlich. Das war für uns beide ein großer Schritt vorwärts, um auszutesten, wie die Musik der „Lifehouse“-Methode klingen könnte.
Dave: Visual Harmony ist von mir als Fortsetzung von Lawrences Idee einer „Klingenden Mathematik“ entwickelt worden, die er als Basis sowohl seiner Musik als auch der grafischen Animation benützt. Visual Harmony setzte diese Ideen auf einer modernen Plattform um. Lawrences eigenes System lief ja noch auf einem Amiga und davor auf Apple II und unterstützte lediglich Applikationen wie die Fähigkeit, Hierarchien eines harmonischen Systems zu erzeugen. Im Gegensatz zu den Programmen von Lawrence, die hauptsächlich von einem Algorithmus gesteuert wurden, stellte Visual Harmony eine ganze Toolbox von Algorithmen und grafischen Möglichkeiten zur Verfügung und benützte XML-konfigurierte Dateien zur Beschreibung der Anwendungen. Wir benützten Visual Harmony, um eine Reihe von Lawrences eigenen Konzerten grafisch zu unterstützen, die er im Rahmen des PTM-Festivals organisierte.
Kannst du erzählen, wie ihr Drei – Pete, Lawrence und du – zusammen gearbeitet habt?
Dave: Pete hatte einen eher entspannten und lässigen Arbeitsstil, den ich wirklich sehr schätze. Persönlich trafen wir uns vielleicht zwei, drei Mal im Jahr; häufiger tauschten wir E-mails aus oder telefonierten. Lawrence hatte eher den Kontakt zu Pete, und Lawrence und ich arbeiteten üblicherweise intensiv an einem speziellen Problem, um dann mit Pete Kontakt aufzunehmen und zu sehen, wie er das Ergebnis fand. Lawrence brachte die musikalischen Fähigkeiten ein, ich kümmerte mich um die technischen Details von Petes über allem schwebender Vision und der musikalischen Visualisierung, indem ich alles in eine funktionierende Software übersetzte. Wir fingen ziemlich an der Basis an, das heißt, wir begannen mit dem Aufbau der Software, die Musik erzeugen sollte, indem wir Lawrences „Klingende Mathematik“ nahmen und ein immer anspruchsvolleres kompositorisches Rahmengerüst hinzufügten. Beispielsweise setzten wir die CLIPS-Software ein, die ursprünglich von der NASA entwickelt worden war. Schließlich packten wir alles in eine Web-Applikation. Das bedeutet nicht, dass wir planlos vorgingen – wir hatten durchaus einen Gesamtplan –, aber wir entschieden uns, uns zu aller erst auf die Musik zu konzentrieren, und das bedeutete, wir mussten eine Basis-Software zur Musikerzeugung zuerst entwickeln. Damit verbrachten wir fast das gesamte erste Jahr. Im zweiten Jahr verteilten sich die Aufgaben ungefähr zu gleichen Teilen auf die Musik und auf die ganze Software, die gebraucht wurde, um die Musikerzeugungsmaschine im Netz funktionsfähig zu machen.
Was war denn das schwierigste Problem, das ihr lösen musstet, bevor die Software im Internet anlaufen konnte?
Dave: Ich denke, das schwierigste war, einen musikalischen Bezugsrahmen zu erstellen, das einerseits viele Variationen erlaubte, andererseits aber auch genug eingrenzende Bedingungen vorgab, so dass wir uns vorstellen konnten, die verschiedenen Stücke eines Tages zusammen bei einem „Lifehouse“-Konzert vorzuspielen. Lawrence hat dafür die ganze Arbeit geleistet; ihm gebührt hier alle Ehre. Zu den technischen Herausforderungen, denen ich mich zu stellen hatte, gehörte, dass das Projekt ein weites Spektrum unterschiedlicher Technologien erforderte. Beispielsweise galt es, eine Cross-Plattform zu erfinden, um Audioeingaben aufzeichnen zu können. Es gab zahllose Karaoke-Webseiten, die das damals anboten, aber die liefen nur über Windows und Internet Explorer. Inzwischen kann man es auch mit Adobe Flash machen, aber dazu sind technische Eingriffe in die auf dem Server laufende Software zwingend notwendig. Und wir mussten sehr hochwertige Audiodateien schneller als in Echtzeit im Internet erzeugen können. Heute stellt unsere Software ein Fünf-Minuten-Stück in weniger als einer Minute her. Doch damals waren selbst die besten Softwares – meist für Musiker entwickelt – nur in der Lage, in Echtzeit mit Hilfe einer grafischen Schnittstelle zu arbeiten. Nachdem wir mit Hunderten, Tausenden von Anwendern rechnen mussten und die Software auf einem im Datenzentrum verborgenen Server laufen musste, kam diese Lösung für uns nicht in Frage. Die Musik musste schneller als in Echtzeit generiert werden, also mussten wir mehrere Server miteinander verbinden und ihre Zusammenarbeit koordinieren. Eine Kleinigkeit für einen Konzern wie Google, der Hundertausende von Servern einsetzt, aber für mich war das eine neue Erfahrung. Vieles an sich war gar nicht so neu, aber die Anzahl der verschiedenen Dinge, die wir zusammenpacken und aufeinander abstimmen mussten, stellte die große Aufgabe dar. Es gab so viel zu lernen und im Auge zu behalten. Zusammenfassend war die größte Herausforderung, die Software so weit zu bringen, dass sie ansprechende Musik auf ausbaufähige Weise vollständig automatisch erzeugen konnte.
Ich habe die Webseite natürlich ausprobiert und war überrascht, wie interessant meine Tunes klangen. Andere, die ich gehört habe, sind ebenfalls überraschend gut, manche gefallen mir aber auch nicht; die Bandbreite der Klänge und Sequenzen ist in jedem Fall wirklich erstaunlich. Eine Sache ist mir freilich völlig unklar: Als Computerlaie kann ich mir zwar vorstellen, dass Daten wie etwa Bilder in andere digitale Daten wie etwa Audiodaten umgewandelt werden können – obwohl ich mich nach wie vor frage, wie eure Software beispielsweise die Farbe rot erkennen und von blau unterscheiden kann oder wie diese unterschiedliche Stimmungen oder Emotionen sich später im Tune wiederspiegeln lassen. Aber wie das Bemerkenswerteste geschieht, kann ich mir nicht im Ansatz vorstellen. Ich dachte, jeder Tune sei eine Art Loop, eine sich wiederholende Sequenz von vielleicht 30, 40 Sekunden, doch da gibt es Veränderung über fünf Minuten hinweg, denn das jeweilige musikalische Thema wandelt sich, entwickelt sich, bricht ab oder baut sich immer wieder neu auf. Es muss also ein zufälliger Impuls geschehen, ähnlich der Mutation in der Natur, die für ständige Transformation sorgt – wie habt ihr diesen Effekt erzielt?
Dave: Sicherzustellen, dass es eine Art von Fortschritt oder Entwicklung in der Musik gab, war eine der schwierigsten musikalischen Aufgaben. Es ist keine zufällige Mutation daran beteiligt, sondern alles wird von dem Input kontrolliert, den die Software erhält. In der Datenerfassung ist die Transformation bereits enthalten, das heißt, du gibst mit deiner Dateneingabe der Software sowohl die Kontrolle über die Ausgangsbedingungen als auch über die Weiterentwicklung des Stücks. Schon die „Klingende Mathematik“ von Lawrence führte zur Herstellung von musikalischen Motiven, die sich mit der Zeit veränderten. Mein Vertrag mit Eel Pie erlaubt es mir leider nicht, eine vollständige technische Beschreibung von diesen Vorgängen zu geben.
Wie viele Personen haben denn bisher ihr musikalischen Porträt erstellen lassen?
Dave: Ich habe die Datenbank gerade überprüft. Auf der Hauptseite gibt es heute (31. Mai 2008) genau 10.029 Tunes. Wir haben auch noch eine gesonderte Seite, die nicht öffentlich ist und die für für unsere Testserien genutzt haben. Da gibt es noch einmal einige Hundert Tunes.
Wie schätzt du die Qualität der Stücke ein? Sind alle etwa gleich gut, oder gibt es große Unterschiede im Hinblick auf eine mögliche Verwendung durch Pete?
Dave: Manche Kompositionen sind wirklich genial, andere sind ziemlich eintönig. Wenn ich mir die Kommentare anschaue, die die Leute bezüglich ihrer Tunes hinterlassen haben, würde ich sagen, dass die Mehrzahl sehr positiv reagiert hat; aber es gibt auch einige wenige sehr negative Kommentare. Lawrence und ich glauben festgestellt zu haben, dass die Leute, die besonders enthusiastisch waren, auch eher die besseren Musikstücke erhalten haben. Woran das liegt, kann ich nicht genau sagen – möglicherweise geben sich begeisterte Leute eher Mühe bei der Dateneingabe und sorgen für besseren Input, mit dem das System dann auch besser arbeiten kann.
Glaubst du, dass eines Tages ein „Lifehouse“-Konzert mit der Klangerzeugungsmethode stattfinden wird?
Dave: Ob so ein Konzert stattfinden wird, hängt allein von Pete ab. Ich kann es im Moment überhaupt nicht einschätzen, ob oder ob es nicht der Fall sein wird.
(Anmerkung: Kurz nach diesem Interview beschloss Pete Townshend die „Lifehouse“-Webseite wieder zu schließen. Das Ziel der Einrichtung sei erreicht, erklärte mir Pete dazu später im Interview. Wer sich mit der „Lifehouse“-Software näher beschäftigen möchte, sollte die Webseiten von Dave Snowdon http://www.davesnowdon.com und von Lawrence Ball www.myspace.com/lifehousemethod besuchen.)