Vor ein paar Jahren in diesem Monat hat der in Portland, Oregon, lebende Künstler Darius Kazemi eine Flut von Tweets angehender Romanciers gesehen. November ist der National Novel Writing Month, eine Zeit, in der sich die Leute hocken, um innerhalb weniger Wochen 50.000 Wörter herauszubringen. Für Kazemi, einen Computerkünstler, dessen bevorzugtes Medium der Twitter-Bot ist, klang die Idee leicht gewunden. "Ich dachte, ich würde das nie tun", sagt er. "Aber wenn ein Computer es für mich tun könnte, würde ich es versuchen."
Kazemi sandte einen Tweet aus, und eine Gemeinschaft von gleichgesinnten Künstlern trat schnell in Aktion. Sie richteten ein Repo auf Github ein, in dem die Leute ihre Projekte veröffentlichen und Ideen und Werkzeuge austauschen konnten, und ein paar Dutzend Leute arbeiteten daran, Code zu schreiben, der Text schreiben würde. Kazemi produzierte normalerweise keine Romanarbeiten; er mochte das Mark von 140 Zeichen. Also hat er dort angefangen. Er schrieb ein Programm, in dem Tweets für eine bestimmte Vorlage abgerufen wurden - einige (häufig untergeordnete) Tweets, in denen Fragen gestellt wurden, und plausible Antworten von anderen Stellen in der Twitterverse. Es war ein interessanter Dialog, aber die Verrücktheit befriedigte nicht. Zum Glück ließ er das Programm Einträge aus Online-Traumtagebüchern abrufen und zwischen den Gesprächen verteilen, als würden die Charaktere in einen Fugenzustand geraten. Er nannte es Teenager, die um ein Haus wandern. Erster "Roman" vollbracht.
GPT-2 kann keinen Roman schreiben; Nicht einmal der Anschein, wenn man an Austen oder Franzen denkt.
Seit diesem ersten NaNoGenMo sind sechs Jahre vergangen - das ist „Generation“anstelle von „Writing“. Kazemi sagt, dass sich nicht viel im Geiste geändert hat, obwohl sich das Ereignis weit über seinen Freundeskreis hinaus ausgedehnt hat. Das Github-Repo ist mit Hunderten von Projekten gefüllt. "Roman" ist lose definiert. Einige Teilnehmer streben nach einer klassischen Erzählung - einer zusammenhängenden, von Menschen lesbaren Erzählung -, die formale Strukturen fest in ihre Programme einprogrammiert. Die meisten nicht. Klassische Romane werden algorithmisch in surreale Pastiches verwandelt; Wiki-Artikel und Tweets werden aggregiert und nach Stimmungen geordnet und in ungeraden Kombinationen zusammengefasst. Einige versuchen visuelle Wortkunst. Mindestens eine Person wird zwangsläufig eine 50.000-fache Variation von "Miau, Miau, Miau …" durchführen.
"Das zählt", sagt Kazemi. Tatsächlich ist es ein Beispiel auf der Github-Begrüßungsseite.
Aber eine Sache, die sich geändert hat, sind die Werkzeuge. Neue Modelle für maschinelles Lernen, die auf Milliarden von Wörtern trainiert wurden, haben Computern die Möglichkeit gegeben, Text zu generieren, der viel menschlicher klingt als zu Beginn von Kazemi. Die Modelle werden darauf trainiert, statistischen Mustern in der Sprache zu folgen und grundlegende Grammatikstrukturen zu erlernen. Sie erzeugen Sätze und sogar Absätze, die (zumindest grammatikalisch) perfekt lesbar sind, auch wenn sie keine absichtliche Bedeutung haben. Anfang dieses Monats veröffentlichte OpenAI GPT-2, eines der fortschrittlichsten Modelle für den öffentlichen Verbrauch. Sie können das System sogar auf einen bestimmten Stil abstimmen - georgische Gedichte, New Yorker-Artikel, russische Fehlinformationen -, die zu allerlei interessanten Verzerrungen führen.
GPT-2 kann keinen Roman schreiben; Nicht einmal der Anschein, wenn man an Austen oder Franzen denkt. Es kann kaum einen Satz herausholen, bevor es den Faden verliert. Aber es hat sich immer noch als beliebte Wahl unter den rund 80 NaNoGenMo-Projekten erwiesen, die in diesem Jahr bereits begonnen haben. Ein Mann hat auf einem sechsstündigen Flug von New York nach Los Angeles ein Gedichtband geschrieben. (Das Projekt unterstrich auch den enormen CO2-Fußabdruck, der mit dem Training solcher Sprachmodelle verbunden ist.) Janelle Shane, eine Programmiererin, die für ihre kreativen Experimente mit hochmoderner KI bekannt ist, twitterte über die Herausforderungen, denen sie gegenübersteht. Einige GPT-2-Sätze waren so gut ausgearbeitet, dass sie sich fragten, ob sie plagiiert und direkt aus dem Trainingsdatensatz entnommen worden waren. Ansonsten geriet der Computer oft in einen Bereich langweiliger Wiederholungen oder „unverständlichen Surrealismus“.
"Egal, wie sehr Sie mit Ihrem Roman zu kämpfen haben, zumindest können Sie sich trösten, dass die KI noch mehr zu kämpfen hat", schreibt sie.
"Es ist ein unterhaltsamer Trick, Text zu erstellen, der äußerlich sehr ähnlich aussieht", sagt Allison Parrish, die an der New York University Computerkreativität lehrt. Aber aus ästhetischer Sicht schien GPT-2 nicht viel mehr zu sagen zu haben als ältere Techniken des maschinellen Lernens - oder sogar Markov-Ketten, die seit den 1940er-Jahren, als Claude Shannon die Sprache zum ersten Mal erklärte, für die Texterkennung verwendet wurden war Information. Seitdem benutzen Künstler diese Werkzeuge, um die Behauptung aufzustellen, sagt Parrish, "diese Sprache ist nichts weiter als Statistik."
Viele von Parrishs Schülern planen die Arbeit mit GPT-2 als Teil eines NaNoGenMo-Abschlussprojekts für einen Kurs über Computererzählung. Daran ist nichts auszusetzen, stellt sie fest; Fortgeschrittene KI ist ein weiteres Werkzeug für kreative Codeexperimente, wie die Arbeit von Shane zeigt. Sie glaubt nur, dass es angesichts der Versuchung, ein paar Zeilen in GPT-2 einzuspeisen und den Lesern eine tiefere Bedeutung in den Mustern zu geben, eine Herausforderung sein könnte. Der Mensch ist schließlich ein gemeinnütziges Interpretationswesen.
ERFAHREN SIE MEHR

Der WIRED-Leitfaden für künstliche Intelligenz
Es gibt viele Möglichkeiten, Code-generierten Text zu erweitern. Eine Methode besteht darin, einige Grenzen zu setzen. Für die diesjährige Veranstaltung hatte Nick Montfort, Professor für digitale Medien am MIT, die Idee von Nano-NaNoGenMo, einer Herausforderung, mit Codefragmenten von nicht mehr als 256 Zeichen Länge neuartige Werke zu produzieren. Es geht auf die Cypherpunk-Ära zurück, sagt er und schreibt den Commodore 64s die Art von Constraints-Codierern vor, mit denen sie in den 1980er-Jahren zu tun hatten - keine Aufrufe zu ausgefallenem Code für maschinelles Lernen. Abgesehen von der Nostalgie ist Montfort ein Fan von Code und Datensätzen, die Sie lesen und interpretieren können. Er vermeidet lieber die Blackboxen der neuen Sprachmodelle, die Text erzeugen, der in den statistischen Unwägbarkeiten massiver Datensätze verwurzelt ist. "Ich freue mich darauf, den Code sowie die Romane zu lesen", sagt er. "Ich lese Computerromane gründlich von vorne nach hinten."
In einigen Fällen buchstäblich. Montfort hat einige NaNoGenMo-Romane veröffentlicht und gebunden, die andere Druckereien schließlich durch erneutes Auslösen des zugrunde liegenden Codes „übersetzt“haben, um Text in anderen Sprachen zu produzieren. In seinem ersten Buch, das er 2013 eingereicht hatte, wurden für jeden Moment des Tages eine Reihe von Vignetten erstellt, die in verschiedenen Städten angesiedelt und an die Zeitzone angepasst waren. In jedem liest eine Figur gewöhnliche Texte - die Rückseite von Müslischachteln, Arzneimitteletiketten. Er schrieb es über ein paar Stunden mit 165 Zeilen Python-Code. Sein nächster Versuch baute auf Samuel Becketts Roman Watt auf, der so undurchdringlich ist, dass er fast wie ein Computer liest. Er war der Meinung, dass er Beckett besser lesen könnte, wenn er seine eigene Version generierte und die richtigen Merkmale und Muster fand, um sie zu erweitern.
In diesem Jahr sind Montforts Nano-Beiträge einfach. (Einer von ihnen löscht First-Person-Pronomen von Moby Dick.) Das ist ein Vorteil, sagt er, weil es NaNoGenMo ermutigt, anfängerfreundlich zu bleiben, mit Projekten, die sowohl in der Konzeption als auch in der Ausführung einfach sind. "Sie werden nicht ernsthaft beurteilt und heruntergefahren, basierend auf dem, was Sie tun", sagt er. "Die Leute werden nicht aufhören, dich zu Gedichtlesungen einzuladen."