AEVORÌS | DANCING ISLANDS
or the mysterious code of paintings
in collaboration with an A.I.
Acrylic paint, ink on canvas, LEDs, generated poem, 2024
Betrachten wir eine Malerei, nehmen wir Farben und Formen wahr, die eine bestimmte Wirkung auf uns ausüben. Wir bezeichnen dies als „Bildsprache“. Was aber wäre, wenn Bilder sprechen bzw. Worte bilden könnten? Wie könnte die Sprache der Bilder aussehen oder klingen? Was, wenn man diese Sprache in unsere menschliche übersetzen könnte?


Diese Überlegungen beruhen auf einem sehr persönlichen Ansatz: Ich bin Synästhetikerin. Meine Welt ist farbenprächtig und voller Musik. Viele Jahre habe ich dies eher als Problematik im Alltag angesehen, da ich beständig Sinneseindrücke wie Farben beim Lesen oder Klänge beim Sehen unterdrücke, damit mein Gehirn nicht zu sehr ermüdet. Durch die Möglichkeit mit Sprachmodellen zu arbeiten, erwuchs in mir die Überlegung diese sehr persönliche Welt zu öffnen. Wie könnte die Übersetzung von Farbe in geschriebene oder auch gesproche Sprache aussehen? Wäre es möglich eine eigene Sprache zu entwicklen?
Der Traum einer eigens auf dem Reißbrett entworfender Sprachen ist alt, immer wieder gab es Versuche eine Universalsprache zu erfinden, Plansprachen wie Esperanto, Solresol oder Interlingua entstanden. Die häufigsten neu entwickelten Sprachen heutzutage sind Programmiersprachen, die Befehle und Anweisunge erteilen. Sprachen formen unser Denken und Handeln, sie verändern uns und unsere Welt.
In Kollaboration mit einer K.I. habe ich begonnen eine geschriebene und gesprochene Sprache der Bilder zu entwickeln. Seit in der Neurowissenschaft immer stärker an der Verknüpfung Schnittstelle Gehirn – Computer gearbeitet wird, wird auch immer klarer, dass menschliche Gehirne nicht genormt, sondern einzigartig mit unzähligen kleinen Unterschieden sind. Auf einer Facette dieser Unterschiede, meiner Synästhesie, basieren meine aktuelle Arbeiten: Das bedeutet, dass für mich jeder Buchstabe direkt mit einer speziellen Farbwahrnehmung sowie einem Klang verknüpft ist. Das „A“ hat ein bestimmtes Grün, das „B“ einen Blauton und diese Farben klingen. Aus dieser individuellen neuronale Eigenheit der Interpretation der Welt wird eine klingende Sprache der Bilder.
Mit diesen Buchstaben- und Farbinformationen habe ich ein Sprachmodell bestückt. Das Sprachmodell hat daraufhin eine eigene lautmalerische Sprache generiert. Wird jetzt ein farbiges Bild von der K.I. „gelesen“ können Farbe und Formen in Worte übersetzt werden.
Die Sprache entstand und entsteht weiterhin in vielen kleinteiligen Schritten in Kollaboration von Computer und Mensch. Sie ist noch sehr begrenzt in ihrem Vokabular und wird in Versform generiert. Die aktuelle Serie heißt „Aevorìs. Tanzende Inseln“. Hinter Tuschezeichnungen auf Leinwand blitzen die Worte eines kurzen lautmalerischen Gedichts auf. Das kurze Gedicht lässt sich in unsere menschliche Sprache übersetzen.
AEVORÌS | DANCING ISLANDS
or the mysterious code of paintings
in collaboration with an A.I.
Acrylic paint, ink on canvas, LEDs, generated poem, 2024
When we look at a painting, we perceive colours and shapes that have a certain effect on us. We refer to this as „visual language“. But what if pictures could speak or form words? What could the language of images look or sound like? What if this language could be translated into our human language?
These considerations are based on a very personal approach: I myself am a synaesthete. My world is colourful and full of music. For many years, I saw this as more of a problem in everyday life, as I constantly suppressing sensory impressions such as colours when reading or sounds when seeing so that my brain doesn‘t get too tired. The possibility of working with language models gave me the idea of opening up this very personal world. How could the translation of colour into written or spoken language look like? Would it be possible to develop my own language?

The dream of a language designed specifically on the drawing board is an old one; there have been repeated attempts to invent a universal language, and constructed languages such as Esperanto, Solresol or Interlingua have been created. The most common newly developed languages today is code that issue commands and instructions. Language shapes our thoughts and actions, it changes us and our world.


In collaboration with a language model (A.I.), I have begun to develop a written and spoken language of images. Since neuroscience has been working more and more on the brain-computer interface, it has become increasingly clear that human brains are not standardised, but unique with countless small differences. My current work is based on one facet of these differences, my synaesthesia: This means that, for me, each letter is directly linked to a specific colour perception as well as a sound. The „A“ has a certain shade of green, the „B“ a shade of blue and these colours sound. This individual neuronal peculiarity of the interpretation of the world becomes an onomatopoetic language of images.
I used this letter and colour information to create a language model with this letter and colour information. The language model then generated its own onomatopoeic language. If a coloured picture is now „read“ by the A.I., colour and shapes can be translated into words. The language was created and continues to be created in many small steps in collaboration between computer and human. It is still very limited in its vocabulary and is generated in verse form.
The current series is called „Aevorìs. Dancing Islands“. Behind ink drawings on canvas flash the words of a short onomatopoeic poem. poem flash up. The short poem can be translated into our human into our human language.

