Karl F. Gerber
  • Areas
    • Aktuelles
    • Eigenklang
    • Formelimprovisation
    • Komputermusik
    • Releases
  • Information
    • Curriculum Vitae
    • Impressum/Disclaimer

Mathematik macht Musik

Ich möchte Formeln untereinander verknüpfen, um musikalisch-sinnhaft

Komplexität zu gestalten.

In meinem aktuellen Programm können 91 Variablen in 50 Formeln miteinander verknüpft werden, um achtstimmig in Echtzeit zu 'spielen'.

Mathematik macht Musik

Ich möchte Formeln untereinander verknüpfen, um musikalisch-sinnhaft

Komplexität zu gestalten.

In meinem aktuellen Programm können 91 Variablen in 50 Formeln miteinander verknüpft werden, um achtstimmig in Echtzeit zu 'spielen'.

Mathematik macht Musik

Ich möchte Formeln untereinander verknüpfen, um musikalisch-sinnhaft

Komplexität zu gestalten.

In meinem aktuellen Programm können 91 Variablen in 50 Formeln miteinander verknüpft werden, um achtstimmig in Echtzeit zu 'spielen'.

     Formelimprovisation (Definition, Gerber 2015/16)

  1. Abzugrenzen gegen Formelkompositionen (Stockhausen), die als "Formel" eine Tonhöhenreihe betrachten.*
  2. Erweiterung einer seriellen Denkweise, welche komponiert durch Gestaltung über musikalische Parameter (Messiaen u.v.a.); jetzt durch Echtzeitzugriff, sofortiges Hören der Ergebnisse, spielerischen Zugang.
  3. Creative Coding: Musikalisches Zuspitzen von livecoding, damit nicht virtuoses Programmieren im Vordergrund steht. Dem Zwang zur Projektion des Programmierbildschirms werde ich mich nur im Einzelfall unterwerfen.
  4. Komplexes Erweitern von Computer DJ-ing; dort wird natürlicherweise durch stärkere Vorselektion das Treffen des Stils garantiert.
  5. Im Vordergrund steht die Formel, sie ordnet die musikalischen Parameter; bei Verknüpfung vieler (selbst einfacher) Formeln entsteht eine kontrollierbare Struktur. Wichtig ist die Möglichkeit der Verknüpfung unterschiedlicher musikalischer Ebenen, Stimmen, Klängen usw.

 

*Die meisten Musikliebhaber "wissen" daß Musik mit Mathematik zusammenhängt, und natürlich hätten kluge Musikakademiker die richtigen Formeln schon in den 1920er Jahren erfunden.

Ich selbst habe  –  außer bei Xenakis  –  keine mathematischen Formeln (zur Komposition) publiziert gefunden. (Gegenbeispiele werden gerne entgegengenommen). Eine Akkordfolge z. B. ist ein Pattern (Muster), aber keine mathematische Formel – nach meinem Verständnis.

Formelimprovisation

Potential

Ich möchte Formeln untereinander verknüpfen, um musikalisch-sinnhaft Komplexität zu gestalten.

In meinem aktuellen Programm können 91 Variablen in 50 Formeln miteinander verknüpft werden, um achtstimmig in Echtzeit zu 'spielen'.

Natürlich könnte man Listen (oder Felder, Matrizzen) von Rhythmus-Patterns (timeline patterns) miteinader vernüpfen oder einfach Matrizzen mit Wahrscheinlichkeitswerten befüllen und multiplizieren. Für das Improvisieren sind mir aber Wahrscheinlichkeitswerte (z. B. Markov-Übergangswahrscheinlichkeiten) zu indirekt.

Explorativ (Lernen): Die im Verlauf der Improvisation entstehenden Formeln, können gespeichert werden. Sie stehen für Analyse zur Verfügung und können gezielt als Ausgangspunkt für weitere Improvisationen verwendet werden. Nicht unähnlich der Situation, bei der ein(e) JazzmusikerIn beim Üben am Instrument Patterns entwickelt, einübt, sammelt und bewertet.

Übertragen: Schließlich können 'erprobte' Kombinationen von Formeln zur Komposition exakt notierter Stücke verwendet werden. Dazu werden die MIDI-Daten, einschließlich Controller-Information (Artikulation) verarbeitet. Besondere Herausforderungen bestehen in der Synchronisation für ein lesbares Dauern-Notat und die Extraktion der Vortragsbezeichnungen. Erweiterbar auf andere Medien. (siehe Video)

Es besteht also ein ähnlich enger Zusammenhang zwischen improvisierendem Spielen und Notieren, also 'Komponieren'; Improvisieren stellt die Obermenge der Möglichkeiten dar; Notat das selektierte, auskristallisiertes Destillat. Hier ist das Experiment mit dem Unspielbaren und in gewissem Maß "Unvorstellbaren" möglich.

Formelimprovisation (Definition, Gerber 2015/16)

  1. Abzugrenzen gegen Formelkompositionen (Stockhausen), die als "Formel" eine Tonhöhenreihe betrachten.*
  2. Erweiterung einer seriellen Denkweise, welche komponiert durch Gestaltung über musikalische Parameter (Messiaen u.v.a.); jetzt durch Echtzeitzugriff, sofortiges Hören der Ergebnisse, spielerischen Zugang.
  3. Creative Coding: Musikalisches Zuspitzen von livecoding, damit nicht virtuoses Programmieren im Vordergrund steht. Dem Zwang zur Projektion des Programmierbildschirms werde ich mich nur im Einzelfall unterwerfen.
  4. Komplexes Erweitern von Computer DJ-ing; dort wird natürlicherweise durch stärkere Vorselektion das Treffen des Stils garantiert.
  5. Im Vordergrund steht die Formel, sie ordnet die musikalischen Parameter; bei Verknüpfung vieler (selbst einfacher) Formeln entsteht eine kontrollierbare Struktur. Wichtig ist die Möglichkeit der Verknüpfung unterschiedlicher musikalischer Ebenen, Stimmen, Klängen usw.

*Die meisten Musikliebhaber "wissen" daß Musik mit Mathematik zusammenhängt, und natürlich hätten kluge Musikakademiker die richtigen Formeln schon in den 1920er Jahren erfunden.

Ich selbst habe  –  außer bei Xenakis  –  keine mathematischen Formeln (zur Komposition) publiziert gefunden. (Gegenbeispiele werden gerne entgegengenommen). Eine Akkordfolge z. B. ist ein Pattern (Muster), aber keine mathematische Formel, nach meinem Verständnis.

Formelimprovisation

Potential

Ich möchte Formeln untereinander verknüpfen, um musikalisch-sinnhaft Komplexität zu gestalten.

In meinem aktuellen Programm können 91 Variablen in 50 Formeln miteinander verknüpft werden, um achtstimmig in Echtzeit zu 'spielen'.

Natürlich könnte man Listen (oder Felder, Matrizzen) von Rhythmus-Patterns (timeline patterns) miteinader vernüpfen oder einfach Matrizzen mit Wahrscheinlichkeitswerten befüllen und multiplizieren. Für das Improvisieren sind mir aber Wahrscheinlichkeitswerte (z. B. Markov-Übergangswahrscheinlichkeiten) zu indirekt.

Explorativ (Lernen): Die im Verlauf der Improvisation entstehenden Formeln, können gespeichert werden. Sie stehen für Analyse zur Verfügung und können gezielt als Ausgangspunkt für weitere Improvisationen verwendet werden. Nicht unähnlich der Situation, bei der ein(e) JazzmusikerIn beim Üben am Instrument Patterns entwickelt, einübt, sammelt und bewertet.

Übertragen: Schließlich können 'erprobte' Kombinationen von Formeln zur Komposition exakt notierter Stücke verwendet werden. Dazu werden die MIDI-Daten, einschließlich Controller-Information (Artikulation) verarbeitet. Besondere Herausforderungen bestehen in der Synchronisation für ein lesbares Dauern-Notat und die Extraktion der Vortragsbezeichnungen. Erweiterbar auf andere Medien. (siehe Video)

Es besteht also ein ähnlich enger Zusammenhang zwischen improvisierendem Spielen und Notieren, also 'Komponieren'; Improvisieren stellt die Obermenge der Möglichkeiten dar; Notat das selektierte, auskristallisiertes Destillat. Hier ist das Experiment mit dem Unspielbaren und in gewissem Maß "Unvorstellbaren" möglich.

Bedienung

Jede Bildschirmseite besteht aus 50 Formeln; zwanzig Bildschirmseiten können abgespeichert werden, jede Formel kann live editiert oder durch eine Formel aus den 19 gespeicherten Bildschirmen ersetzt werden. Innerhalb der Bildschirmseite können Formeln umkopiert werden: die "Lautstärkesequenz Stimme 5" wird zur "Vibratointensität von Stimme 1" kopiert und dort weiter verfeinert.

Das Programm kennt 91 Variablen (z. B. L1: Tondauer gemessen in Anzahl Grundpulsen, deren Dauer in Milliskunden ist die Variable G; G ist ebenfalls von Schlag zu Schlag veränderbar!). In gewissem Rahmen ist Rekursion möglich: erzeuge einen Kanon und verwende das Ergebnis der letzten Sequenz in veränderter Form als Ausgangsmaterial der nachfolgenden ersten Sequenz.

 

Es wird extensiv von Tastenkominationen Gebrauch gemacht:

z. B. Strg-F1 lädt die erste Bildschirmseite mit den 50 Formeln zur sofortigen Ausführung.

Shift-F4 ersetzt die entsprechende Formel am Cursor durch die Formel aus Bildschirm 14.

 

Dies verlangt Übung (ich habe das System "nur" für mich selbst entwickelt). Selbst nach Jahrtausende langer Optimierung traditioneller Musikinstrumente gilt: eine Aktion genügt für einen neuen Ton, neue Artikulation.

Der Gegensatz dazu wäre Zeitverlust durch Mausoperationen. Beim Editieren von Formeln muss allerdings gescrollt oder mit dem Mauszeiger gesprungen werden.

Maximal angelehnt an Improvisation, gleichzeitig das kontrollierte Navigieren im multidimensionalen Raum. Jede Bildschirmseite bedeutet eine Sequenz oder eine Klangtextur oder ein komplexes Ereignis oder eine dynamische Entwicklung oder ein Minimal-Music-Modell usw.

Durch Änderung "im Inneren" der Kompositionsstruktur ist "composition by refinement" in Echtzeit möglich.

Bewertung/Kritik

Aufführungen meiner notierten Versionen auf akustischen Instrumenten sind erfolgreicher als live-elektronische Performances.

Bei Lautsprecherkonzerten wiederum scheint die Verwendung abstrakter (genuin) 'elektronischer' Klänge von einem Avantgarde-Publikum besser aufgenommen zu werden als elektronische Simulationen von akustischen Instrumenten. Man ist irritiert (oder sogar verärgert?) über die nicht gelungene Vortäuschung traditioneller Instrumente.

Theoretiker sagen allerdings steigende Verbreitung und technische Verbesserung der sogenannten ePlayer (Lehmann) vorher.

Digitale Klavierklänge werden etwa in Pop-Produktionen bei Radiowiedergabe kaum erkannt und allenfalls bevorzugt.

Also: Zwischen den Stühlen traditioneller Notation (MIDI-eventorientiert, aber keine akustischen Instrumente) und Live-Klangsynthese (MIDI-controller kontrollieren Physical Modeling).

Aber: dies ist (hier) der Preis für die Möglichkeit live Strukturen wie Poly-Rhythmen und Mikro-Rhythmen zu erzeugen, die nicht nur aus Schleifen bestehen. Texturen züchten: Klangstruktur vs Strukturklang (Lachenmann).

Einfache Mathematik und Technik: keine Technikverherrlichung und keine Demonstration technologischer Überlegenheit (ermöglicht durch Sponsoren und Stab von 'Sounddesignern' . . . ).

Zufall kommt in begrenztem Maß hinein durch erstens: menschliche Bedienungsfehler; zweitens: Leistungsgrenzen (Timing) Software/Hardware; drittens: Kommunikationsschwächen bei der Weiterverabeitung der MIDI-Informationen (es werden 5-14 parallele MIDI-Ports verwendet.)

Bedienung

Jede Bildschirmseite besteht aus 50 Formeln; zwanzig Bildschirmseiten können abgespeichert werden, jede Formel kann live editiert oder durch eine Formel aus den 19 gespeicherten Bildschirmen ersetzt werden. Innerhalb der Bildschirmseite können Formeln umkopiert werden: die "Lautstärkesequenz Stimme 5" wird zur "Vibratointensität von Stimme 1" kopiert und dort weiter verfeinert.

Das Programm kennt 91 Variablen (z. B. L1: Tondauer gemessen in Anzahl Grundpulsen, deren Dauer in Milliskunden ist die Variable G; G ist ebenfalls von Schlag zu Schlag veränderbar!). In gewissem Rahmen ist Rekursion möglich: erzeuge einen Kanon und verwende das Ergebnis der letzten Sequenz in veränderter Form als Ausgangsmaterial der nachfolgenden ersten Sequenz.

 

Es wird extensiv von Tastenkominationen Gebrauch gemacht:

z. B. Strg-F1 lädt die erste Bildschirmseite mit den 50 Formeln zur sofortigen Ausführung.

Shift-F4 ersetzt die entsprechende Formel am Cursor durch die Formel aus Bildschirm 14.

 

Dies verlangt Übung (ich habe das System "nur" für mich selbst entwickelt). Selbst nach Jahrtausende langer Optimierung traditioneller Musikinstrumente gilt: eine Aktion genügt für einen neuen Ton, neue Artikulation.

Der Gegensatz dazu wäre Zeitverlust durch Mausoperationen. Beim Editieren von Formeln muss allerdings gescrollt oder mit dem Mauszeiger gesprungen werden.

Maximal angelehnt an Improvisation, gleichzeitig das kontrollierte Navigieren im multidimensionalen Raum. Jede Bildschirmseite bedeutet eine Sequenz oder eine Klangtextur oder ein komplexes Ereignis oder eine dynamische Entwicklung oder ein Minimal-Music-Modell usw.

Durch Änderung "im Inneren" der Kompositionsstruktur ist "composition by refinement" in Echtzeit möglich.

Bewertung/Kritik

Aufführungen meiner notierten Versionen auf akustischen Instrumenten sind erfolgreicher als live-elektronische Performances.

Bei Lautsprecherkonzerten wiederum scheint die Verwendung abstrakter (genuin) 'elektronischer' Klänge von einem Avantgarde-Publikum besser aufgenommen zu werden als elektronische Simulationen von akustischen Instrumenten. Man ist irritiert (oder sogar verärgert?) über die nicht gelungene Vortäuschung traditioneller Instrumente.

Theoretiker sagen allerdings steigende Verbreitung und technische Verbesserung der sogenannten ePlayer (Lehmann) vorher.

Digitale Klavierklänge werden etwa in Pop-Produktionen bei Radiowiedergabe kaum erkannt und allenfalls bevorzugt.

Also: Zwischen den Stühlen traditioneller Notation (MIDI-eventorientiert, aber keine akustischen Instrumente) und Live-Klangsynthese (MIDI-controller kontrollieren Physical Modeling).

Aber: dies ist (hier) der Preis für die Möglichkeit live Strukturen wie Poly-Rhythmen und Mikro-Rhythmen zu erzeugen, die nicht nur aus Schleifen bestehen. Texturen züchten: Klangstruktur vs Strukturklang (Lachenmann).

Einfache Mathematik und Technik: keine Technikverherrlichung und keine Demonstration technologischer Überlegenheit (ermöglicht durch Sponsoren und Stab von 'Sounddesignern' . . . ).

Zufall kommt in begrenztem Maß hinein durch erstens: menschliche Bedienungsfehler; zweitens: Leistungsgrenzen (Timing) Software/Hardware; drittens: Kommunikationsschwächen bei der Weiterverabeitung der MIDI-Informationen (es werden 5-14 parallele MIDI-Ports verwendet.)

Erweiterungsmöglichkeiten als Stärke des Konzepts

Modularität: hybride Konzepte mit Live-Notation für akustische Instrumente sind naheliegend und möglich.

Ableitung von Steuerdaten für Licht, Laser, Nebel, mechanische Instrumente, Installationen usw. ist aus diesem Konzept heraus logisch, geradezu 'organisch'. Ein älteres Synästhesie-Experiment 'Computergrafikfilm mit dazu streng algorithmisch gekoppelter Musik' ist auf YouTube bereitgestellt.

Will man Musik improvisieren für improvisiertes Theater oder Tanz, so müssen m. E. stärkere Vorselektionen getroffen werden; in 'Improvisation with Integers' (YouTube) habe ich Formelgruppen als Szenen interpretiert, zwischen welchen gezielt umhergesprungen werden kann.

Meines Erachtens sind audiobasierte Methoden (reine Live-Klangsynthese) nur auf großen Umwegen zu derartigen Medien-übergreifenden Verbindungen in der Lage. Grundsätzlich ist die Integration von Eventorientierung (MIDI) und Klangsynthese naheliegend; meine derzeitige Software wäre damit in jeder Hinsicht überfordert . . .

Erweiterungsmöglich-

keiten als Stärke des Konzepts

Modularität: hybride Konzepte mit Live-Notation für akustische Instrumente sind naheliegend und möglich.

Ableitung von Steuerdaten für Licht, Laser, Nebel, mechanische Instrumente, Installationen usw. ist aus diesem Konzept heraus logisch, geradezu 'organisch'. Ein älteres Synästhesie-Experiment 'Computergrafikfilm mit dazu streng algorithmisch gekoppelter Musik' ist auf YouTube bereitgestellt.

Will man Musik improvisieren für improvisiertes Theater oder Tanz, so müssen m. E. stärkere Vorselektionen getroffen werden; in 'Improvisation with Integers' (YouTube) habe ich Formelgruppen als Szenen interpretiert, zwischen welchen gezielt umhergesprungen werden kann.

Meines Erachtens sind audiobasierte Methoden (reine Live-Klangsynthese) nur auf großen Umwegen zu derartigen Medien-übergreifenden Verbindungen in der Lage. Grundsätzlich ist die Integration von Eventorientierung (MIDI) und Klangsynthese naheliegend; meine derzeitige Software wäre damit in jeder Hinsicht überfordert . . .

Passionatepolka Live Performance

Meine Improvisation 'PassionatePolka'

am 28. März 2015

beim Musikfest der MGNM,

Münchner Gesellschaft für Neue Musik e.V.

im Schwere Reiter München.

Mit Projektion des Programmier-Bildschirms gemäß den Forderungen des livecoding

'show me your screen'

(UA, ca. 12 Minuten)

Passionatepolka

Live Performance

Meine Improvisation 'PassionatePolka'

am 28. März 2015

beim Musikfest der MGNM,

Münchner Gesellschaft für Neue Musik e.V.

im Schwere Reiter München.

Mit Projektion des Programmier-Bildschirms gemäß den Forderungen des livecoding 'show me your screen'

(UA, ca. 12 Minuten)

             

Karl F. Gerber | Deisenhofener Str. 102 | 81539 München | Germany | 2018 built by magamat