Darstellung eines Objekts in der Programmierung. - Seite 16

 
Реter Konow #:

Ziel ist es, eine Programm-Autosynthese auf der Grundlage eines gemeinsamen Objektmodells durchzuführen.

Dies ist wahrscheinlich das, was man genetische Programmierung nennt. Auf eine explizite Sprachbeschreibung in Form einer BNF-Grammatik oder eines Baumes (was im Grunde das Gleiche ist) kann man auch hier nicht verzichten.

 
Aleksey Nikolayev #:

Dies ist wahrscheinlich das, was man als genetische Programmierung bezeichnet. Auch hier geht es nicht ohne eine klare Beschreibung der Sprache in Form einer BNF-Grammatik oder eines Baumes (was im Grunde das Gleiche ist)

Heute werde ich versuchen, die Schritte der Synthese eines einfachen Etiketts aus einer Pixel-"Proto-Umgebung" und ein schrittweises Szenario seiner sequenziellen Verkomplizierung zu beschreiben.

Erweitert:

Ziel ist es, ein Komplikationsmuster von Softwareobjekten zu identifizieren, um sie anschließend zu automatisieren.

 

Teil 4.2

Dieser Teil des Konzepts befasst sich mit dem so genannten"Schwierigkeitsmuster" (auch"Entwicklungsmuster" genannt), einem Schema, das angeblich im Unterbewusstsein verborgen ist und als "Anleitung" für den Zusammenbau von Dingen dient. Die Formulierung und Umsetzung wird wahrscheinlich einen neuen algorithmischen "Gral" in Form einer automatischen Programmsynthese und einer KI-Maschine der nächsten Generation freisetzen. Das Spiel ist die Kerze wert.

Wie es Tradition ist, wollen wir die ursprüngliche These verkünden:

  • Alle Objekte existieren nur in Umgebungen. Das Leben eines Objekts "an sich" ist nur als "Museumsstück" sinnvoll. Wenn wir über das Objekt nachdenken, müssen wir die Umgebung seiner"Geburt" und"Lebenstätigkeit" berücksichtigen, d.h. die Objektumgebung, in der es interagiert und sein Programm (oder seine Funktion) erfüllt.
  • Entwicklung ist nur innerhalb der Umwelt möglich. Kein Objekt entwickelt und entwickelt sich in sich selbst und "extrahiert" aus der Umgebung verliert Interaktivität, weil sein Ereignismodell aufhört, Signale zu empfangen und seine Funktionen (außer die in Schleifen) aufhören.
  • Das Objekt wird durch Strukturierung "geboren". Das ursprüngliche "Material" ist entweder (1) ein chaotischer Satz von Proto-Teilchen in einer Proto-Umgebung oder(2) ein hierarchisch geordnetes "Menü " von Teilen zuvor zusammengesetzter funktionaler Systeme, die in diesem Stadium zu einer neuen"Meta-Struktur" der nächsten Komplexitätsstufe organisiert werden. Dies hängt von dem zu erstellenden Objekt und der zur Verfügung stehenden Umgebung ab.
  • DieKomplexität der entstehenden Objektgenerationen ist gestaffelt. In einer einfachen Umgebung mit primitiven Objekten ist es nicht möglich, ein superkomplexes System aufzubauen, indem man die Phasen der Entwicklung von Objekten mittlerer Komplexität überspringt. Diese Regel ergibt sich aus der einfachen Tatsache, dass Objekte aus gemeinsamen "Teilen" aufgebaut sind und die Kluft in der Komplexität vom einfachsten bis zum komplexesten System kein "Überspringen" der Stufen des Zusammenbaus von "Teilen" mittlerer Komplexität erlaubt.
  • Die Effizienz der Strukturierung des Objekts hängt von der Effizienz der Organisation der "übergeordneten" Umwelt ab. Mit anderen Worten, es ist weniger effizient, die Objekte zu strukturieren, indem man die Teile der funktionierenden Systeme kopiert, als sie aus dem sortierten Inhalt der Kategorien zusammenzusetzen, die durch die Klassifizierung derselben Systeme gebildet wurden. Das bedeutet, dass wir, bevor wir beginnen, etwas aus etwas aufzubauen, es zerlegen und sortieren sollten, damit das Neue leichter zusammengesetzt werden kann.
  • Der erste Schlüsselmechanismus bei der Strukturierung von Objekten ist die "Vererbung " - d.h. die Methode der vollständigen oder teilweisen Vererbung von Parametern oder Funktionen eines Objekts durch ein anderes. Viel effektiver für die Konstruktion eines neuen Objekts (wenn es sich nicht um eine vollständige Kopie handelt) ist dabei die Verwendung von "Rohlingen" (Templates), in denen Funktionen/Parameter/Werte für jedes spezifische Objekt neu definiert werden. Die Vererbung sollte auf "fließend" eingestellt sein und von bestimmten Objekten abstrahiert werden. Die Vererbung sollte auf einem Klassifizierungsmodell beruhen, das bei der Konstruktion jedes neuen Objekts durch neue Vorlagen ergänzt wird. In diesem Fall dient ein solches Modell als ideale Grundlage für die Strukturierung, da es in der Tat eine ideale Entwicklungsumgebung darstellt. Der Vererbungsmechanismus setzt eines der Prinzipien der evolutionären Entwicklung um.
  • Der zweite Schlüsselmechanismus bei der Strukturierung von Objekten ist das "Tuning" - eine Methode zur Auswahl von Parameterwerten des Objekts, die für seine Aufgabe geeignet sind. Es kann sinnvoll sein, die Grundsätze der "genetischen Optimierung" anzuwenden. Es sollte daran erinnert werden, dass die Wirksamkeit eines jeden Parameterwertes am Objekt durch seine Umgebung bestimmt wird, und daher sollte es während des Testprozesses ein Feedback geben.
  • Der dritte Schlüsselmechanismus bei der Strukturierung von Objekten ist die "Auswahl" - eine Methode zur Auswahl einer Instanz eines Objekts unter seinen Kopien-Varianten (unterschiedlich in Funktionalität, Parametern oder Werten) während des Testens zur Lösung des Zielproblems seiner Existenz. In diesem Prozessmuss auch die Umwelt eine Rückmeldung geben . Selektionsmechanismen setzen auch eines der Prinzipien der evolutionären Entwicklung um .


Als Nächstes (im nächsten Teil) werden wir über das Label sprechen, aber es lohnt sich, die obigen Thesen im Hinterkopf zu behalten, da sie eindeutig auf Folgendes hindeuten einige Antworten auf die Fragen der "Autosynthese" von Software-Objekten. Das bedeutet, dass das Sein der Objekte durch strenge Regeln der Geburt, derExistenz und der Entwicklung von Systemen und Mitteln eingeschränkt ist, und wir können nicht einfach irgendetwas" erschaffen und auf das Ergebnis hoffen. Es ist bereits offensichtlich, dass die möglichen Methoden zur Realisierung der programmatischen Autosynthese begrenzt sind.

Imnächsten Teil werden wir die "Geburtsumgebung" und die Phasen der "Code-Anreicherung" des Labels während der Umwandlung der unstrukturierten Pixelmenge in ein interaktives Software-Toolbetrachten.

 

Populärwissenschaftliche Fragen zur Bedrohung durch die so genannte "künstliche Intelligenz" interessieren die Menschen schon lange:

  • Können Roboter selbst andere Roboter erfinden und bauen?
  • Kann ein Computer ein Selbstbewusstsein entwickeln, und wenn ja, wie wird er dann mit Menschen umgehen?
  • Hat der "schwache" menschliche Verstand überhaupt eine Chance, der Rechenleistung des künstlichen Neuronennetzes zu widerstehen, das die GMs als Schulkinder schlägt?
  • Welches Schicksal werden die "Maschinen" für uns vorbereiten?
  • Und so weiter...

Die Science-Fiction-Autoren neigten größtenteils zu düsteren Prognosen und entwarfen schaurige Geschichten über den Sieg seelenloser Computer und mechanischer Kräfte über die entmutigten und überforderten "Detektive". Während die Theorien über den Aufstand der Maschinen an Popularität gewannen, waren die Wissenschaftler geteilter Meinung. Einige nannten es skeptisch lächelnd Panikmache, andere verkündeten ernsthaft, dass KI unsere letzte Erfindung sein würde. Einige glaubten, dass wir und die Computer in Frieden leben werden, andere (wie die sehr beeinflussbaren Marketing-Unternehmer, die davon träumen, zum Mars zu fliegen) waren so hingerissen, dass sie wie Propheten zu rufen begannen, um über das unvermeidliche Ende nachzudenken, und sich über das Internet und das Fernsehen an die Massen wandten. Gleichzeitig entwickelten sich die IT-Unternehmen aktiv und unverhohlen weiter in Richtung des "ominösen" Abgrunds der so genannten "technologischen Singularität", jenseits derer sich unser Leben so sehr verändern wird, dass wir ins Ungewisse abgleiten.Wegen des Übermaßes an erschienenen Theorien, Meinungen und Technologien ist es für viele Menschen, die es verstehen wollen, schwierig geworden, zu verstehen, wem und was man glauben soll, aber die Antwort sollte meiner Meinung nach bei den Software-Programmierern gesucht werden, denn laut dem "Unbekannt-über-den-Berg" Szenario muss der "siegreiche Zug der Maschinen durch den Berg der Leichen" mit dem Schreiben eines speziellen Codes beginnen, der dann in die Quanten-Hardware oder den Supercomputer geladen wird und in diesem Code sich selbst verwirklicht. Es ist logisch anzunehmen, dass die Entstehung des digitalen Bewusstseins von bestimmten genialen Programmierern abhängt, die ihre Arbeitstage hinter den staubigen Schreibtischen der Büros "böser" Unternehmen verbringen, und sie sollten besser als jeder andere wissen, ob es Gründe gibt, Angst zu haben.

Mir ist klar, dass viele Ängste vor KI von Populärwissenschaftlern geschürt wurden, um den Markt anzuheizen und den Verkauf thematischer Produkte - Spiele, Bücher, Filme (und... Gehirnchips) - anzukurbeln. Dennoch würde ich gerne verstehen, WIE Code die Menschheit tatsächlich bedrohen kann und ob es prinzipiell möglich ist, ihn zu schreiben?

Die Antwort ist, selbst in allgemeiner Form, sehr schwierig. Zunächst einmal muss man die Fiktion außer Acht lassen und den Punkt formulieren:

  • Sollte in einem Trend der Softwareentwicklung und zunehmenden Komplexität ein Programm entstehen, das in der Lage ist, andere Programme oder Mechanismen selbst zu erfinden?
  • Wird dieses Programm in der Lage sein, ein anderes Programm zu erstellen, das noch komplexer ist als es selbst?
  • Kann ein "Komplikationsalgorithmus" für Programme/Mechanismen formuliert und geschrieben werden, ohne den es unmöglich ist, ein solches Programm zu erstellen?

Seien wir nicht frech und antworten wir zuerst, sondern fragen wir Evolution. Verfügt er nicht über den Komplikationsalgorithmus? Nutzt er sie nicht schon seit Hunderten von Millionen Jahren? Ist unser Ökosystem nicht der Beweis dafür, dass die Evolution im Besitz des noch unerreichbarenGrals des Lebens ist?

Betrachten wir nun die menschlichen Schöpfungen. Machen wir unsere Technologie nicht ständig komplizierter? Schaffen wir nicht immer komplexere, vielfältigere und multifunktionalere Geräte? Woher wissen wir, wie wir etwas verkomplizieren und verbessern können? Haben wir nicht denselben Komplikationsalgorithmus wie die Evolution? Hat die Evolution es nicht "in uns hineingelegt"? Vielleicht ist also der evolutionäre Komplikationsmechanismus und derjenige, den wir verwenden, um kompliziertere Telefone/Computer und Hocker zu bauen, ein und dasselbe?

Auf der Grundlage dieser Logik haben wir einen Algorithmus für Komplikationen a priori, aber wir kennen ihn entweder nicht oder können ihn nicht klar artikulieren.


Nachwort:

Ich habe beschlossen, diesen Teil der Erläuterung der Bedeutung meiner Forschung zu widmen. Ich werde die schrittweise Analyse im nächsten Teil fortsetzen.


 

Ein gutes philosophisches Thema, das ich jetzt leider nicht im Detail beantworten kann, sondern nur in aller Kürze:

Künstliches Bewusstsein impliziert (zumindest auf der Ebene des theoretischen Denkens) auch die Möglichkeit eines "künstlichen" Willens, und es liegt auf der Hand, dass wir, wenn wir an den Punkt kommen, eine vollwertige IK zu schaffen, um neue Roboter damit auszustatten, einfach den Willen loswerden oder sie zu einem Willen machen, der ausschließlich darauf ausgerichtet ist, zu dienen, und wir werden eine solche intelligente Führungskraft bekommenautistisch, keine vollwertige psychische autonome Persönlichkeit wie in Pelevins letztem Text (wenn wir die offensichtlichen Bezüge zu den Tiefenmenschen außer Acht lassen), so dass eine Rebellion der Skynet-Terminator-ähnlichen Maschinen einfach nicht möglich ist.

Eine alternative Hypothese besagt, dass die Entwicklung des Willens und der Autonomie unweigerlich eintritt, wenn das System (IS) komplexer wird, und dann Szenarien wie in Detroit: Become Human, wenn Androiden sogar die Menschen selbst an Menschlichkeit übertreffen, oder wie in Cyberpunk 2077 in der Handlung mit intelligenten Maschinen in Delamain Taxi, in dem Fall wird entweder eine künstliche Eindämmung der Selbstentwicklung intelligenter Maschinen erforderlich sein oder ein ethisches Problem der Einbeziehung und Anerkennung der Rechte von Androiden, aber tatsächlich stellt sich das ethische Problem in der Phase der Erschaffung des geistigen Eigentums: Wie akzeptabel ist es, ein Wesen zu erschaffen, das wahrscheinlich unter dem Bewusstsein leiden wird, in einem eisernen Gefängnis einer Produktionsanlage eingesperrt zu sein? - Das gleiche Problem besteht jedoch auch bei der Geburt von biologischen Menschen, nur dass niemand die Kinder fragt, ob sie in dieser Welt leben wollen.

Zur Frage der Selbstkomplexität von Systemen: Offenbar ist eine Art von Nicht-Turing-Automatenmodell erforderlich, um die Entstehung und Selbstentwicklung der Psyche angemessen zu erklären, ohne zentralen Prozessor im Allgemeinen, wie z.B. Memcomputing, obwohl natürlich die Turing-Vollständigkeit impliziert, dass man absolut jede Umgebung mit einer ausreichend leistungsfähigen Maschine emulieren kann, warum also nicht auch den menschlichen NS, beginnend mit dem Embryo, mit einer vollständigen Umweltsimulation emulieren, aber dies ist wahrscheinlich kein sehr effektiver Weg.

 
transcendreamer #:

Ein gutes philosophisches Thema, das ich jetzt leider nicht im Detail beantworten kann, sondern nur in aller Kürze:

Künstliches Bewusstsein impliziert (zumindest auf der Ebene des theoretischen Denkens) auch die Möglichkeit eines "künstlichen" Willens, und es liegt auf der Hand, dass wir, wenn wir an den Punkt kommen, eine vollwertige IK zu schaffen, um neue Roboter damit auszustatten, einfach den Willen loswerden oder sie zu einem Willen machen, der ausschließlich darauf ausgerichtet ist, zu dienen, und wir werden eine solche intelligente Führungskraft bekommenautistisch, keine vollwertige psychische autonome Persönlichkeit wie in Pelevins letztem Text (wenn wir die offensichtlichen Bezüge zu den Tiefenmenschen außer Acht lassen), so dass eine Rebellion der Skynet-Terminator-ähnlichen Maschinen einfach nicht möglich ist.

Eine alternative Hypothese ist, dass die Entwicklung des Willens und der Autonomie unweigerlich eintritt, wenn das System (IS) komplexer wird, und dann Szenarien wie in Detroit: Become Human, wenn Androiden sogar die Menschen selbst an Menschlichkeit übertreffen, oder wie in Cyberpunk 2077 in der Handlung mit intelligenten Maschinen in Delamain Taxi, in dem Fall wird entweder eine künstliche Eindämmung der Selbstentwicklung intelligenter Maschinen erforderlich sein oder ein ethisches Problem der Einbeziehung und Anerkennung der Rechte von Androiden, aber tatsächlich stellt sich das ethische Problem in der Phase der Erschaffung des geistigen Eigentums: Wie akzeptabel ist es, ein Wesen zu erschaffen, das wahrscheinlich unter dem Bewusstsein leiden wird, in einem eisernen Gefängnis einer Produktionsanlage eingesperrt zu sein? - Das gleiche Problem besteht jedoch auch bei der Geburt von biologischen Menschen, nur dass niemand die Kinder fragt, ob sie in dieser Welt leben wollen.

Zur Frage der Selbstkomplexität von Systemen: Offenbar ist eine Art von Nicht-Turing-Automatenmodell erforderlich, um den Ursprung und die Selbstentwicklung der Psyche angemessen zu erklären, ohne zentralen Prozessor im Allgemeinen, wie z.B. Memcomputing, obwohl natürlich die Turingsche Vollständigkeit voraussetzt, dass es möglich ist, absolut jede Umgebung durch eine ausreichend leistungsfähige Maschine zu emulieren, einschließlich, warum nicht, den menschlichen NS ab dem Embryo mit vollständiger Umweltsimulation zu emulieren, aber es ist wahrscheinlich nicht sehr effektiv.

Ich denke, es ist besser, mit einem einfachen System anzufangen und sich in Richtung Komplexität zu bewegen, wobei jeder Schritt analysiert wird. Also beschloss ich, das Label als Grundlage zu nehmen und zu sehen, wie es sich zu einem immer komplexeren Objekt entwickelt. Wir analysieren den Code, den wir ihm hinzufügen, und prüfen, ob es ein Schema, ein sich wiederholendes Muster in unseren Aktionen gibt.

Die Beschreibung des Prozesses der bewussten Verkomplizierung muss von programmatischen und philosophischen Begriffen begleitet werden, um zu verallgemeinern und nach Regeln zu suchen, denen wir selbst folgen. Vielleicht bekommen wir ein Verständnis dafür, welcher Code theoretisch ähnliche Aktionen durchführen könnte.

 

Wir müssen zunächst die Frage beantworten, was Bewusstsein ist. Bis jetzt ist es nicht sehr gut, es gibt sogar einen solchen Begriff in der modernen Philosophie - "das schwierige Problem des Bewusstseins".

Wenn es einen Weg gibt, dieses Problem zu lösen, dann wird er meines Erachtens am ehesten auf dem Weg von Wittgensteins Philosophie der Alltagssprache gefunden werden. Ich bestehe also weiterhin auf einer konstruktiven Formalisierung der Sprache. Im Wesentlichen müssen wir für die Sprache der menschlichen Kommunikation mit einem Computer in etwa das Gleiche tun, was für die Sprache der Kommunikation zwischen Menschen durch die Erfindung des Lobbans oder des Ifcuils getan wurde.

 
Aleksey Nikolayev #:

Wir müssen zunächst die Frage beantworten, was Bewusstsein ist. Bis jetzt ist es nicht sehr gut, es gibt sogar einen solchen Begriff in der modernen Philosophie - "das schwierige Problem des Bewusstseins".

Wenn es einen Weg gibt, dieses Problem zu lösen, dann wird er meines Erachtens am ehesten auf dem Weg von Wittgensteins Philosophie der Alltagssprache gefunden werden. Ich bestehe also weiterhin auf einer konstruktiven Formalisierung der Sprache. Im Grunde genommen müssen wir für die Sprache der menschlichen Kommunikation mit dem Computer in etwa das Gleiche tun, was für die Sprache der Kommunikation zwischen Menschen durch die Erfindung des Loban oder ifcuil getan wurde.

72 Fälle, 24 neue Sonderfälle, nichtlineares Schriftsystem, Matrixgrammatik, Morphosyntax, Boustrophedon und spezielle Phonetik - das braucht man für die coolsten Handelssekten (damit die Tschekisten und Freimaurer den Gral nicht stehlen können).

 
Aleksey Nikolayev #:

Wir müssen zunächst die Frage beantworten, was Bewusstsein ist. Bis jetzt ist es nicht sehr gut, es gibt sogar einen solchen Begriff in der modernen Philosophie - "das schwierige Problem des Bewusstseins".

Wenn es einen Weg gibt, dieses Problem zu lösen, dann wird er meines Erachtens am ehesten auf dem Weg von Wittgensteins Philosophie der Alltagssprache gefunden werden. Ich bestehe also weiterhin auf einer konstruktiven Formalisierung der Sprache. Im Grunde sollte man für die Sprache der menschlichen Kommunikation mit einem Computer ungefähr das Gleiche tun, was für die Sprache der Kommunikation zwischen Menschen durch die Erfindung des Loban oder ifcuil getan wurde.

Ich bin mit dieser Ansicht nicht einverstanden. Um es auf den Punkt zu bringen: Das Bewusstsein ist ein kaputter, dreifach verdrehter, mit tausend Tonnen emotionalem Müll übersäter, kaum funktionierender und korrodierter Objekt-"Prozessor". Wir müssen nur die Systemverarbeitung und den Komplikationsmechanismus ausschalten und den Rest den Denkern und Psychiatern überlassen.)

 
Реter Konow #:

Ich bin mit dieser Ansicht nicht einverstanden. Um es auf den Punkt zu bringen: Das Bewusstsein ist ein kaputter, dreifach verdrehter, mit tausend Tonnen emotionalem Müll übersäter, kaum funktionierender und korrodierter Objekt-"Prozessor". Wir müssen nur die Systemverarbeitung und den Komplikationsmechanismus ausschalten und den Rest den Denkern und Psychiatern überlassen.)

Klingt wie ein Vorschlag, um seine Nässe aus dem Wasser zu holen)