TOC PREV NEXT INDEX


Einleitung: Kontexturale Rahmenbedingung zur Strukturation


Nach dem Geviert der Forschungsstrategien und der Thematisierungsweisen, die die vier Grundaspekte der Thematik hervorheben wie ihrer Interrelationen, soll die Untersuchung, der Entwurf, die Idee des General Model of TransComputing bzw. die Skizze rechnender Räume in denkender Leere, d.h. der Strukturationen der Interaktivität ihre Orientierung erhalten. In engster Verbindung zur vierfachen Thematisierung steht die Positionalisierung ihrer Paradigmen, Konzepte und Theoreme im Sinne der DiamondStrategien. Mit dem Ziel, höchstmögliche Reflektiertheit und Distanz zu gewährleisten.

Diagramm 2

Leitlinien der Erfragung

Dieses Modell der Erfragung, der Explikation, des Entwurfs, der Konstruktion ist als Minimalmodell zur Strukturierung der Fragestellungen der hier vorgestellten Arbeit anzusehen. Gewiss muss das Diagramm der Fragestellungen selbst expliziert, formalisiert, modelliert, realisiert und hinterfragt werden.

Narration

A) Das Feld Narration , Explikation" bezieht sich auf die Intuition, die begrifflich oder metaphorisch, d.h. im Medium der Sprache, von umgangssprachlicher bis fachsprachlicher Prägung, zur Darstellung gebracht wird. Es handelt sich um eine rein funktionale Bestimmung, daher ist es kein Widerspruch, wenn im Bereich der Narration auch Aspekte aus den anderen Thematisierungen benutzt werden, etwa Diagramme, Formeln, Programme. Diese stehen in diesem Zusammenhang in einer narrativen Verwendung. Limitationen der Aussagbarkeit, der Vermittelbarkeit, der Grenzen von begrifflicher und poetischer u.a. Figuren sind hier mitzuberücksichtigen. Historische Beispiele der Grenzsituationen sind etwa Hegel und Heidegger.

Ein zeitgenössisches Beispiel für eine reine Narration, die jegliche Formalisierung, Implementierung und Realisation zu Recht vorerst ablehnt, ist das Werk Humberto Maturanas zur Theorie lebender Systeme. Dies schliesst gewiss andere Thematisierungsweisen von anderen Autoren nicht aus.

Formalisierung

B) Das Feld Formalisierung, Kalkülisierung" bezieht sich auf den operativ-symbolischen Aspekt der Thematik. Es handelt sich dabei nicht einfach um eine Formalisierung des eh schon im begrifflichen Kontext gesagten. Die Formalisierung hat, wie jeder andere Aspekt auch, seine eigene Autonomie. Dies schliesst die enge Verbundenheit mit den anderen Aspekten nicht aus. Interessant beim Formalisierungaspekt sind nicht nur die tatsächlich geleisteten Schritte der Realisation der Formalisierung bzw. der operativen Inskription, sondern auch die Thematisierung der immanenten Limitationstheoreme der Formalisierung selbst. Hier sind gewiss die Arbeiten der Grundlagenforscher der Mathematik und Logik von besonderer Bedeutung Gödel, Church, Turing, Markov u.a.

Implementierung

C) Das Feld Implementierung, Modellierung" bezieht sich nicht nur auf mögliche programmtechnische Implementierungen, Modellierungen und Simulationen etwa auf einem Computersystem, sondern auch als Implementierung des Entwurfs des TransComputing im Kontext der verschiedenen Fachsprachen (Philosophie, Mathematik, Logik, Informatik, Semiotik, usw.). Als Implementierungstrategie ist auch der Gebrauch graphentheoretischer Modelle zu sehen, insbesondere dort, wo dieser die immanenten fachlichen Grenzen sprengt bzw. die Graphentheorie missbraucht, ohne dies im Einzelnen umständlich begründen zu wollen.

Realisation

D) Das Feld Konstruktion, Realisation" bezieht sich funktional auf die verschiedenen Ebenen der Konstruktivität des Entwurfs. Soweit sich dieser Aspekt auf eine machinale Realisation des Entwurfs bezieht, können im Text nur wenige Angaben gemacht werden.

Ein Vorentwurf findet sich im Teil D) der Arbeit: Konsequenzen". Dort werden die narrativen, implementativen und formalen Folgen der Idee für eine mögliche Konstruktion im Sinne einer Realisierung skizziert. Auch wenn aus Simulationen keine Realisationen emergieren, ist zu beachten, dass eine Realisation auch ihre Modellierungs- und Simulationsaspekte hat. So lässt sich die Idee des TransComputing zur Zeit gewiss nur modellhaft im Rahmen bestehender Hard- und Software realisieren, obwohl eben gerade diese eine dekonstruktiven Transformation unterworfen werden müssten. Es stellt sich auch die Frage, in welcher Form der Materie TransComputing realisierbar wäre. Entgegen eines idealistischen Funktionalismus wird hier behauptet, dass die Fixierung auf die Mikroebene weder technisch noch konzeptionell bindend ist.

Inwieweit bei einer konkreten Analyse das Vierer-Schema der Thematisierung eine Erweiterung oder eine Reduktion erfährt, hängt gänzlich von der Intention seines Gebrauchs ab. Es wird damit kein trans-epistemologischer Dogmatismus versucht. Zwischen den funktional bestimmten Bereichen, Aspekten der Thematisierung besteht keine Hierarchie, sondern eine komplexe gegenseitige Fundierung und Entgrenzung.

Gotthard Günthers Strategien

Nach der Strategie der Güntherschen Arbeiten zur Zeit des Grundrisses wurde deklariert, dass erst der begrifflich-metaphysische Entwurf eines transklassischen Denkens zu entfalten sei und erst daraufhin die Klempnerarbeit" der Formalisierung zu kommen habe. Der Forschungsweg Günthers hat deutlich gemacht, dass dieser Weg, trotz seiner Teilberechtigung, nur in einem äusserst beschränkten Masse gangbar ist, will man nicht die Autonomie der Formalisierungsthematik verleugnen und sich damit auf einen äusserst eng begrenzten Bereich des Denkens beschränken.

Später wurde die Einsicht in die Autonomie des Formalismus und der Notwendigkeit seiner Interpretation wie folgt formuliert:

Man ist bisher gewohnt gewesen, daß die Philosophie voranging und Mathematik und Technik folgten. D.h. die Philosophie stellte das Thema, und mathematisches und technisches Denken folgten ihm gelehrig...Inszwischen ist aber durch die Technik, und zwar in der Gestalt der Kybernetik, eine der Tradition ganz zuwiderlaufende Bewußtseins- und Erkenntnissituation geschaffen worden. Man philosophiert nicht zuerst, ... sondern man treibt die Anwendung binärer Strukturen und Operationen in immer neuen Varianten vorwärts,...Dabei entwickeln sich zwangsläufig neue philosophische Konzeptionen." Günther 1976

In dieser Studie wird in mancher Hinsicht, die nicht immer explizit gemacht werden kann, auf transklassische Formalismen und deren Interpretation zurückgegriffen. In diesem Sinne müsste erst der Formalismus eingeführt werden und dann diese Studie als Interpretation vorgestellt werden. Der Bezug dieses Entwurfs ist nicht in einer neuen empirischen Erkenntnis bzgl. der Welt zu sehen, sondern reflektiert die Ergebnisse einer skripturalen Arbeit wie sie in der Entwicklung transklassischer Formalismen zutage kommen.

1 Chiasmus von Intuition und Formalisierung

Paradebeispiel für das Wechselspiel von Intuition und Formalismus ist die Explikation und Formalisierung der Idee der Berechenbarkeit. Diese Explikation und Präzisierung vollendet sich in einem allgemein anerkannten Kalkül der Berechenbarkeit, der in verschiedensten zueinander äquivalenten Darstellungsformen realisiert werden kann. Eine Explikation ist kein Beweis, insofern führen die verschiedenen Realisationen zur Hypothese von Church und Turing, dass damit der Begriff der Berechenbarkeit sprachunabhängig expliziert und präzisiert ist. "Alle Algorithmen im präzisen Sinn, sind Algorithmen im intuitiven Sinne."

Diagramm 3

Proportion von Intuition und Präzision

The Church-Turing thesis has the form

"the formally definable notion X corresponds to an intuitive notion Y".

It equates the intuitive notion of algorithmic computation with the formal notion of Turing computable functions from integers to integers:

Church-Turing Thesis:

The intuitive notion of algorithms is formally expressed by Turing machines.

X = algorithms, Y = Turing machines." Wegner, p. 3, CMCS ´99

Entsprechend wird bei Wegner die Idee einer Erweiterung des Paradigmas der Berechenbarkeit eingeführt als Erweiterung der Intuition und deren Explikation und dem Versuch ihrer Formalisierung.

Diagramm 4

Chiasmus des Paradigmenwechsels

E1: The intuitive notion of sequential interaction is formally expressed by non-well-founded sets.

X = sequential (single-stream) interaction, Y = non-well-founded sets

E2: General interactive computing is formally expressed by coinductive models (coalgebras).

X = general (multi-stream) interaction, Y= coinductive models (coalgebras)

The extensions E1, E2 of the Church-Turing thesis provide mathematical legitimacy for models of interaction. Non-well-founded set theory and coalgebras are coinductive extensions of inductive formal models of computation that express extension of the intuitive algorithmic model of computation." Wegner, p. 3, CMCS ´99

From Formal Models to Intuitive Notions

Understanding of relations between formalisms and intuitive notions being formalized is a central goal both of Godel's work on completeness/incompleteness and of Church´s thesis. Theses that relate intuitive to formal models of computing can be motivated either by the desire to formalize a given intuitive notion or by the goal of providing intuition for a given formal concept. Church's thesis has the second motivation, providing intuitions for the robust formal concept of computability by Turing machines, the lambda calculus, or partial recursive functions. He recognized that the answer to such questions could not be definitive, but the equivalent expressiveness of alternative formalisms for computability appeared to provide strong evidence for the Church-Turing thesis.

Church-Turing thesis: Formal effective computability by the lambda calculus (Church) or TMs (Turing) expresses the intuitive notion of effective computability of functions (over positive integers).

The Church-Turing thesis answers the question "What is the intuitive notion of computing that is expressed by TMs?", but not the question "What is the formal model that expresses the intuitive notion of computing?".

"In the early years of computing the intuitive notion of computing was identified with algorithms, and the two above questions were considered to have the same answer. As technology became increasingly interactive, and it was realized that algorithms could not express interaction, the intuitive notion of computing continued to be formalized by TMs because no formal model beyond that of TMs or well-founded set theory was available. Non-well-founded set theory and SIMs (Single Interaction Machine, r.k.) provide well-defined mathematical and machine models that go beyond algorithms, allowing the thesis to be extended." Wegner

Die gesamte Argumentationsstrategie der Theorie Persistenter Maschinen wie sie von Peter Wegner geleistet wird, ist als Abgrenzungs- und Erweiterungsstrategie zu verstehen, die auf einer neuen Erfahrung, einer neuen Intuition basiert. Es wird von einer neuen Intuition Interaktion im Gegensatz zur Intuition der Berechnung (Algorithmen, Computation) ausgegangen und eine Modellierung und Formalisierung versucht in Anlehnung an die von mehr mathematischer Seite erarbeiteten Konzeptionen aus der Logik und Algebra: Coalgebra, Coinduktion, final/initial Object usw.

1.1 Matrix von Intuition und Formalismus

Die chiastische Proportion von Intuition und Formalismus lässt sich nicht restlos in eine Reduktion des Intuitiven und Sprachlichen in einen objektivierenden und operationalen Kalkül oder oder entsprechend in eine Programmiersprache übersetzen.Der Reduktion (ver)bleibt ein Rest, ein Reflexionsrest, der im radikalsten Sinne den Prozess der Reduktion, der hier weder Intuition noch Kalkül ist, zur Geltung bringt.

"Hower much we would like to ´mathematize´the definition of computability, we can never get completely rid of the semantic aspect of this concept. The process of computation is a linguistic notion (presupposing that our notion of language is sufficiently general); what we have to do is to delimit a class of those functions (considered as abstract mathematical objects) for whichexists a corresponding linguistic object (a process of computation)." Mostowski, Thirty Years of Foundational Studies, 1966, p. 33

Der Wegnersche Vorstoss lässt sich zusammenfassend wie folgt in einer hermeneutischen Matrix, gemäss seiner eigenen Grundvorgaben von Intuition und Formalismus, situieren.

1.1.1 Klassische Intuition und klassischer Formalismus

Der Vorstoss, basierend auf einer neuen Intuition, kann in jeder Hinsicht abgewehrt werden. Es braucht weder eine Ergänzung der Mathematik oder gar eine Revision durch nicht-klassische Mengenlehre, Unfundiertheit, Coalgebren, Coinduktion usw.

Alles lässt sich bei entsprechender Ingeniosität durch die klassischen Apparate vollziehen. Alles Neue lässt sich, wenn es nur richtig interpretiert wird, auf klassische Vorgehensweisen und Konzeptionen abbilden und durch diese simulieren oder auch reduzieren. Dies ist eine Abwehrstrategie als Reaktion auf den Einbruch des Neuen. Von selbst wäre die klassische Position nicht auf die Idee einer radikalen Konzeption der Interaktion gekommen. Da die neue von aussen kommende Position vereinnahmt werden kann, kann man auch Affirmatives gegenüber der abgewehrten Position verlautbaren und, nach einigen Domestikationsanpassungen, eine eigene Terrainerweiterung ausführen.

Kritik des Neuen durch etablierte Formalismen und Intuition

After having prepared the ground, we can now investigate the relation between Church's Thesis and interaction. Peter Wegner writes: The hypothesis that the formal notion of computability by Turing machines corresponds to the intuitive notion of what is computable has been accepted as obviously true for 50 years. However, when the intuitive notion of what is computable is broadened to include interactive computations, Church's thesis breaks down. Though the thesis is valid in the narrow sense that Turing Machines express the behavior of algorithms, the broader assertion that algorithms capture the intuitive notion of what computers compute is invalid." [Wegner 1997, p. 83]

Church's Thesis, however, does not assert that algorithms describe any behavior of computers but only that algorithms can compute any computable function. So, Wegner's argument does not affect Church's Thesis.

Nevertheless, it is certainly very interesting to ask whether interaction machines can do" anything Turing machines cannot. Investigating the expressive power of interaction machines can be done in two steps:

1. Are procedures not computing any function expressable by interaction machines? And if so, what does computability mean in the case of such tasks as driving home"? Peter Wegner calls these computations non-algorithmic" but he does not give a precise definition of the term.

2. Are there functions computable by interaction machines but not by Turing machines? This question is even more interesting than the first: If it could be answered in the affirmative, we would have a computational model that is more expressive than the Turing machine, and Church's Thesis would be contradicted. It is important to note that Wegner does not give any examples for this case in his publications. We cannot answer the question here because his interaction machines are not formally defined. But if we assume the interaction machine given above, interactive protocols do not exceed the expressive power of Turing machines." Prasse, Why Church's Thesis Still Holds

1.1.2 Nicht-klassische Intuition und klassischer Formalismus

Dies ist die Wegnersche Position, soweit sie sich klassischer Formalismen bedient. Hier besteht die Chance, die neuen Intuitionen mithilfe des Trojanischen Pferdes klassischer Formalismen in den Wissenschaftsbetrieb einzuschmuggeln. Je nach der Attraktivität der Konstrukte finden sich automatisch Mitstreiter, die die neuen Intuitionen tiefer in klassische Formalismen integrieren. Dass nun plötzlich etwa eine spezielle Mehrband-Turingmaschine eine formale Explikation der Intuition der Interaktion leisten können soll ohne den nicht-klassischen Anspruch zu verraten, bedarf gewiss raffinierter Verhandlungen. Andererseits finden sich auch Mitstreiter auf Seiten der Verteidigung und Ausweitung der nicht-klassischen Intuition durch andere Ansätze und geleitet durch andere Motivationen.

New mathematical tools are needed to model stream-based computation, because inductive methods of definition and reasoning only work in domains of finite objects. The chief new notions are coinduction, coalgebras, and non-well-founded sets.

Inductive definitions provide three conditions:

(1) initiality,

(2) iteration, and

(3) minimality. (...)

While induction formalizes the metaphor of constructing finite structures from primitives, coinduction formalizes the observation metaphor of stream-based environments. Coinductive definitions eliminate the initiality condition of induction, and replace the minimality condition by a maximality condition. (...)

Coinduction provides a mathematical framework for formalizing systems that interact with the external world though infinite interaction sequences. In addition to greatest fixpoints, the semantics of coinduction assumes lazy evaluation; the tokens of the stream are observed one at a time, rather than all at once. Hence, coinductive definitions permit us to consider the space of all processes as a well-defined set, even if the input streams are generated dynamically and cannot be predicted a priori." (Dina Goldin und David Keil)

Hier erscheint die Konzeption der Turing Maschine in einem anderen Licht. Eine andere und zwar neue Intuition ist leitend, die der Interaktion. Damit entsteht für die Interaktionisten das doppelte Problem, einmal die neue Intuition zugänglich, einsichtig, evident und internalisierbar zu machen und zusätzlich die entsprechenden Formalismen der neuen Einsicht in die Interaktion zu produzieren und zudem der Wissenschaftscommunity gegenüber verständlich zu bleiben. Dabei entsteht das Paradox, dass mit dem Grad der Verständlichkeit der Formalismen die Novität der Intuition verloren geht.

Die andere Strategie ist die der polykontexturalen Option: die neue Intuition mit neuen Formalismen zu etablieren. Damit sind allerdings beide Unternehmungen, die Plausibilisierung der neuen Intuition wie die des Entwurfs einer neuen Operativität, der klassischen Mentalität entzogen.

Es ist daher nicht verwunderlich, dass die Wegnersche Position Kritik erfahren hat von der Position etablierter Formalismen und bewährter Intuition. Dies ist in kompetenter und instruktiver Weise geleistet worden im Paper von Michael Prasse und Peter Rittgen Why Church's Thesis Still Holds. Some Notes on Peter Wegner's Tracts on Interaction and Computability." 1997

Damit wird nicht nur der Ansatz Wegners neu, wenn auch mit klassischer Optik, beleuchtet, sondern auch die Situierung der Turing Maschine und insb. die Churchsche These erhält eine neue Inszenierung im Sinne einer positiven Abgrenzung zum Unternehmen Peter Wegners. Dies wiederum ist der klassischen Position nur möglich aufgrund der vorangegangenen Wegnerschen Arbeiten.

1.1.3 Klassische Intuition und nicht-klassischer Formalismus

Die Hauptvertreter wie Joseph Goguen und Peter Padawitz der mathematischen Strömung der Coalgebraisten bewegen sich im Rahmen der klassischen Intuition was die Churchsche These anbelangt und entwickeln genuin die Theorie der Coalgebren ohne Bezugnahme auf ihre mögliche Interpretation als Interaktionsmaschinen. Wegner entwickelt seine nicht-klassischen Formalismen nicht selbst, sondern bezieht sich auf die Ergebnisse der Coalgebraiker. Dass diese ihre Forschungen ebenso auf neuen Intuitionen basieren ist naheliegend, doch müssen diese nicht mit den Wegnerschen, die zu einem neuen Paradigma der Interaktion und Berechenbarkeit führen wollen, zusammen gehen. Interessant ist, dass beide Tendenzen sich in der Literatur so gut wie nicht aufeinander beziehen, ausgenommen die wenigen Anschlusstellen zum Entborgen von Formalismen und Methodenvon Seiten Wegners.

1.1.4 Nicht-klassische Intuition und nicht-klassischer Formalismus

Dem Phänomen der Interaktion eine solche Auszeichnung zuzuordnen, dies zu einem neuen Paradigma zu erheben, wie dies Wegner vorschlägt, entspricht gewiss einer neuen und nicht-klassischen Intuition der Situation. Dort wo sich Wegner auf nicht-fundierte Mengenlehre und Coalgebren bezieht, bewegt er sich in einer nicht gerade klassischen und etablierten Situation, wenn auch nicht in einer trans-klassischen. Warum jedoch gerade diese und nicht andere nicht-klassische Formalismen benutzt werden, wird nicht diskutiert, ebenso wenig wird die Strömung der Coalgebraiker als solche rezipiert und thematisiert. Für die Explikation und Verteidigung der neuen These ist dies wohl auch nicht wichtig, soweit die geborgten Formalismen ihren Dienst tun.

1.1.5 Trans-klassische Intuition und trans-klassische Formalisierung

Ein wesentlicher Schritt heraus aus der Matrix des Dilemmas von Intuition und Formalismus leistet die trans-klassische Intuition und die trans-klassische Formalisierung der Idee der Interaktion wie sie auf der Basis der SKIZZE angedeutet ist. Die neue Konstellation ist allerdings, wie schon anderswo erwähnt, nun die, dass beide Fundiertheiten des Denkens sich aufgelöst haben und eine erfolgreiche Verteidigung einer transklassischen Intuition und zugleich und miteinander verwoben, eines transklassischen Formalismus, sich der Probabilistik einer Akzeption tendenziell entzieht.

"Die Unmöglichkeit historische Katastrophen abzuwenden legt beredtes Zeugnis ab für die erschütternde Unfähigkeit des menschlichen Intellekts angesichts dieser Aufgabe." Günther 1968, p. 187/8

1.2 Kontextlogische Rahmenbedingung zur Strukturation

Bei dem Geviert der Thematisierungen wie sie in §1 eingeführt werden, sind nicht nur die vier Grundaspekte in ihrer Isoliertheit zu thematisieren, sondern auch die sechs Relationen der vier Aspekte zueinander.

Ein weiterer Schritt im Sinne einer polykontexturalen Thematisierung, müssen die Aspekte, Bereiche, Schreibweisen usw., die für sich Kontexturen darstellen, in einen kontextlogischen Zusammenhang gebracht werden. So ist Narration nicht einfach nur Narration für sich selbst, sondern auch Narration im Kontext der Formalisierung, also kurz, Narration der Formalisierung, Narration der Implementierung und auch Narration der Realisierung.

Eine weitere Kontextuierung im Sinne einer transklassischen Kontextlogik bzw. Modellierungstheorie ergibt sich bei der Thematisierung nicht der Bereiche selbst, sondern der Relationen zwischen den Bereichen. So wäre etwa die Relation zwischen Narration und Formalisierung vom Standpunkt der Implementierung zu thematisieren. Damit ist die unäre Darstellung der Thematisierungsweisen zu Gunsten von n-ären Relationsgebilden zu erweitern.

Diagramm 5

Kontextuierung der Relation von Narration/Formalisierung
2 DiamondStrategien als kleine Methodologie der Dekonstruktion

Verbunden mit dem Geviert der Thematisierung sind die vier Diamond-Positionen und ihre Iterationen und Akkretionen, die jeweils zu einer These, Position, Statement usw. eingenommen werden können. Zu jedem Satz als Theorem gibt es einen Gegensatz, ein Weder-noch, und ein Beides-ineins, die alle argumentativ gleichberechtigt zur Darstellung gebracht werden müssen und jeweils Horizonte eröffnen oder verschliessen, Spielräume ermöglichen oder entmöglichen.

Als ein Minimalmodell der Dekonstruktion haben sich die DiamondStrategien vielfach bewährt. Es wird jedoch nicht beansprucht, dass mit den DiamondStrategien eine volle Explikation eines Modells der Arbeit der Dekonstruktion zu leisten ist.

Diamond Modell

Position (Satz, Setzung, Anfang, Affirmation): es gilt A.

Opposition (Gegensatz, Umkehrung, Dualisierung, Reflexion) von A.

Akzeption (Zugleich, Ineins, Sowohl-als-Auch) von Position und Opposition von A.

Rejektion (Verwerfung, Weder-Noch) von Position und Opposition.

3 Die Strategie des Concept Mining

Concept Mining ist eine Strategie, die eine flexible Verankerung der Gesamtthematik in der Intertextualität verschiedenster Forschungsrichtungen ermöglicht. Es handelt sich um eine inter- und transdisziplinäre Verbindung mit Ressourcen, die sich nicht durch die Dichotomie von Begriffssprache vs. Formalsprache eingrenzen lässt.

Concept Mining als Strategie ist jedoch nicht identisch mit einem Zitieren und Verlinken von bestehenden inter- und transdisziplinären Knotenpunkten wissenschaftlicher Felder. Sie ist vielmehr das Aufdecken, Desedimentieren, Zusammenführen, Durchdringen von Strömungen, die selbst noch nicht in die mediale Öffentlichkeit des Wissenschaftsbetriebs gelangt sind.

4 Thematisierungstypen

Die Thematisierung des Korpus der Theorie des Machinalen kann weiterhin unter den Aspekten des Formalismus, des Systemismus, des Srtrukturalismus u.a. geschehen.

Es macht auch einen wesentlichen Unterschied, ob die Thematisierung primär im Modus bottem-up oder top-down vollzogen wird.

Werden diese Unterschiede nicht klar erkannt und die Zugangsweisen vermischt, entstehen zwangsläufig unfruchtbare Missverständnisse.

5 Spezielle Darstellungsformen

Ein Begriff bedeutet mehr als jedes Diagramm. Ein Bild sagt mehr als tausend Worte.

6 Ablaufdiagramm der Arbeit

Entsprechend den vier Thematisierungsstrategien ist die Arbeit Skizze eines Gewebes rechnender Räume in denkender Leere" in vier Grundthemen strukturiert:

A) Der Narrationsthematik entsprechend wird hier die Leitmetapher philosophisch, semiotisch, kenogrammatisch, komparatistisch zur klassischen Konzeption der Theorie des Berechenbaren und Machinalen skizziert.

B) Im Teil Towards a Formal Model of TransComputing" werden die formalen Aspekte im Sinne einer Formalisierung der Metapher als formales Modelling versucht.

C) In Interpretationen" wird die Metapher und die Formalisierung mit verschiedenen Umgebungen verglichen und eine Einbettung als Implementierung angeboten. Ein weiterer Schritt dieser Implementierung würde sich mehr auf den formalen Aspekt der Idee beziehen müssen und eine programmiertechnische Computerimplementierung vornehmen.

D) In Konsequenzen" werden die narrativen, implementativen und formalen Folgen der Idee für eine mögliche Konstruktion im Sinne einer Realisierung skizziert.

6.1 Überblick und Zusammenfassung von Teil A
Einführung der Idee der Orte und ihrer Vielheit als denkende Leere"
Hier wird grundlos, da Gründe unbegründbar sind, die Idee der Orte als Ursprung der Ortschaft der denkenden Leere ins Spiel gebracht. Orte sind keine Ursprünge, da sie weder in Affirmation noch in Negation zur Anwesendheit zu versammeln sind. Trotz ihrer Ortlosigkeit, ist eine Vielheit der Orte im Spiel.
Inskription der Orte als Kenogramme
Die Figuren der Ortlosigkeit werden als Markierungen in der Leere in Form von Leerzeichen, genannt Kenogramme, eingeschrieben.
Konstruktion der Tabularität der Morphogramme der Kenogrammatik
Inskriptionen in der Leere, Kenogramme bilden Leerformen, Morphogramme und tabulare Notationsfelder der Kenogrammatik mit emanativer und evolutiver Strukturation.
Kenomische Übergänge als Ereignisse
Diese kenomischen Leerfolgen von Übergängen werden als Ereignisse verstanden. Ereignisse jenseits von Prozessualität, Dynamik und Transition. Ereignisse in diesem Sinne sind B
Interpretation der Kenogrammatik der Trito-Stufe durch Zahlsysteme
Die Leerstrukturen der Kenogrammatik werden mit natürlichen Zahlen belegt.
Deutung natürlicher Zahlen als Binärsysteme in der Kenogrammatik
Diese Belegung der Kenogramme mit natürlichen Zahlen wird als eine Verkettung von Binärsystemen interpretiert. Jede Zahlenfolge der natürlichen Zahlen wird dekomponiert in ihre Folge von Binärkomponenten.
Exposition des Abstract Model of Computing als rechnender Raum"
Leonid A. Levin´s Modell des Computing wird in seinen Grundlagen skizziert. Es liefert das Modell und die Begrifflichkeit des klassischen Modells der Berechenbarkeit und des Machinalen.
Dissemination des Modells als Einführung des TransComputing
Dieses Modell wird am Leitfaden der Distribution der Binärsysteme über der Kenogrammatik disseminiert.
Chiasmus zwischen den Modellen rechnender Räume
Der Mechanismus der Separation, Diskontexturalität und des Übergangs, Transkontexturalität zwischen rechnenden Räumen", Modellen des Berechenbaren, wird durch den Chiasmus geregelt.
Dekonstruktion und Diamondisierung der Begrifflichkeit des Modells
Die eingeführten und operativ genutzten Begriffe des Modells des Computings im Sinne von Levin werden durch die Strategien der Umkehrung und Verschiebung ihrer basalen Dichotomien dekonstruiert.
TransComputing und die vier Weltmodelle als innerweltliche Einbettung
Das In-der-Welt-sein des TransComputing wird nach Massgabe der vier Weisen der Verwobenheit von Realität und Rationalität, Welt und Logik, in das Geviert des Frameworks der Weltmodelle gesetzt.









6.2 Keywords
Grundmetaphern
Ort, Linie, Baum, Netz, Gewebe, Sprung, Obstakel, Übergang, Wiederholung, Mehrzeitigkeiten, Lücken, Amnesien, rechnender Raum, Berechenbarkeit, Maschine, Interaktion, Lebendigkeit, Weltmodelle, Geviert.
PKL-Grundbegriffe
Kenogrammatik, Kenomik, Morphogramm, Chiasmus, Chiastik, Ordnungs-, Umtausch-, Koinzidenzrelation, Polykontexturalität, Diskontexturalität, Transkontexturalität, Kontextur, Rejektion, Akzeption, Transjunktion, Multi-Negationalität, Distribution, Vermittlung, Dissemination, Dekomposition, Monomorphie, Iteration, Akkretion, DiamondStrategies, Concept Mining, Dekonstruktion, Ver-Operatoren, Ko-Kreation, Polykategorientheorie.
Computational terms
computation, graph, events, states, synchronous/asynchronous, deterministic/non-deterministic, location, configuration, sequential/parallel, Turing Machine, Cellular Automata, Pointer Machine; interaction, bisimulation, algebra, co-algebra, induction, co-induction, constructor, destructor, deconstructor, combining logics, self-reflection.
Graph reduction, G-machine, distributed labelled systems, computational ontology, abstract state machine, Kaluzhnin-graph-schemata, ...
category theory, conceptual graph, non-well foundedness, circularity, ....



ThinkArt Lab

TOC PREV NEXT INDEX