Bei der Textgenerierung werden Texte aus einer Inhaltsrepräsentation erzeugt, die eine Menge miteinander verbundener Aussagen bzw. Sachverhalte repräsentieren. In dieser Arbeit wird ein Verfahren eingeführt, das durch Transduktion aus Inhaltsrepräsentationen über mehrere linguistische Repräsentationsebenen hinweg Texte erzeugt. Durch einen einheitlichen Repräsentationsformalismus werden linguistische Strukturen verschiedener Repräsentationsebenen, wie semantische, syntaktische, topologische und morphologische Repräsentationen dargestellt. Dies hat Vorteile für Software- und Grammatikentwickler.

Die Softwareentwickler müssen nur einen Repräsentationsformalismus und Abbildungsmechanismus entwickeln und warten. Der Vorteil für die Grammatikentwickler liegt darin, dass sie nur einen Formalismus mit einem einzigen homogenen formalen Verhalten erlernen müssen. Bei der Transduktion werden durch Regeln jeweils Teile einer Repräsentationsebene auf die nächste Ebene übersetzt. Dabei wird die Quellrepräsentation unverändert belassen und neue Zielrepräsentationen erzeugt, daher sind die Strukturen der verschiedenen Repräsentationsebenen getrennt und Regeln können auf die Repräsentationen beider Ebenen zugreifen. Regeln können parallel ausgeführt werden und durch Angabe von Kontext können Abhängigkeiten zwischen Regeln modelliert werden, weshalb kein Ordnen von Regeln erforderlich ist. Schließlich wird untersucht, wie Regelschemata zum Lernen von Grammatiken eingesetzt werden können.