Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 513

 

Ich schrieb mein erstes ernsthaftes Programm in Assembler auf einem Radio 86RK Computer. )

 
Grigoriy Chaunin:

Ich schrieb mein erstes ernsthaftes Programm in Assembler auf einem Radio 86RK Computer. )


Wir haben an der UMKC in Assembler geschrieben... als wir Labore gemacht haben. Nach ihnen rauchten unsere Gehirne...

 

Sie haben Glück, ich habe vor etwa 2 Jahren angefangen, etwas zu "schreiben", und zwar sofort in MQL, es gefällt mir, aber ich bin zu dumm, weil mir die Grundkenntnisse fehlen. Ich weiß nicht einmal, wie sich Binärzahlen von 16-Bit-Zahlen unterscheiden und was eine Zahl mit einem "e" am Ende ist.

 

Intel wird demnächst einen Prozessor speziell für neuronale Netze auf den Markt bringen https://newsroom.intel.com/editorials/intel-pioneers-new-technologies-advance-artificial-intelligence/

Intel Pioneers New Technologies to Advance Artificial Intelligence
Intel Pioneers New Technologies to Advance Artificial Intelligence
  • newsroom.intel.com
Today I spoke at the WSJDLive global technology conference about cognitive and artificial intelligence (AI) technology, two nascent areas that I believe will be transformative to the industry and world. These systems also offer tremendous market opportunity and are on a trajectory to reach $46 billion in industry revenue by 20201. At Intel...
 
elibrarius:

Intel wird einen Prozessor speziell für neuronale Netzwerke auf den Markt bringen https://newsroom.intel.com/editorials/intel-pioneers-new-technologies-advance-artificial-intelligence/


IMHO

Ich bin sicher, dass die neuronale Vernetzung in unser Leben Einzug halten wird, aber ich bin auch sicher, dass sie in etwa 20-25 Jahren allgemein verfügbar sein wird.

Ich schätze, dass wir uns im Moment auf einem Niveau befinden, das einem Hund entspricht, der den Mond anheult.

Und große Unternehmen werden in diesem Stadium der Entwicklung keine wertvollen Informationen über Netze weitergeben.

Und höchstwahrscheinlich wird es nicht nur ein Prozessor sein, sondern etwas ganz anderes.

Ich rede vielleicht Unsinn, aber es ist meine Meinung.

 
Wladimir Gribatschow:

IMHO

Ich bin sicher, dass die Neuronik in unser Leben treten wird, aber ich bin auch sicher, dass sie in 20-25 Jahren allgemein verfügbar sein wird.

Ich kann davon ausgehen, dass wir uns im Moment auf einem Niveau befinden, auf dem ein Hund den Mond anheult.

Und große Unternehmen werden in diesem Stadium der Entwicklung keine wertvollen Informationen über Netze weitergeben.

Und höchstwahrscheinlich wird es nicht nur ein Prozessor sein, sondern etwas ganz anderes.

Es kann natürlich sein, dass ich Unsinn rede, aber das ist meine Meinung.


Alle Informationen sind öffentlich zugänglich und bereits in allen Bereichen fest integriert :) Wir sind wie die Russen in der Nachzügler-Echelon, alle streiten darüber, welche Funktionen übernommen und welches Modell verwendet werden soll, weil es noch keine Erfahrungen gibt

 

Sehen Sie sich an, was aus Google Translator geworden ist. Sie läuft jetzt auf neuronalen Netzen. Normale Informationen über NS sind jedoch schwer zu finden, selbst in englischer Sprache. Es ist schwer, sie im öffentlichen Bereich zu finden. Es gibt eine Vielzahl von kostenpflichtigen Materialien. Vor allem Bücher. Aber ich kann kein Englisch. Ich habe nicht vergeblich versucht, alles zu lernen.

 
Grigoriy Chaunin:

Sehen Sie sich an, was aus Google Translator geworden ist. Sie läuft jetzt auf neuronalen Netzen. Normale Informationen über NS sind jedoch schwer zu finden, selbst in englischer Sprache. Es ist schwer, sie im öffentlichen Bereich zu finden. Es gibt eine Vielzahl von kostenpflichtigen Materialien. Vor allem Bücher. Aber ich kann kein Englisch. Ich habe nicht umsonst versucht, das alles zu lernen.


Ja, vor allem wenn man bedenkt, dass Google sein Framework TensorFlow kostenlos zur Verfügung gestellt hat :) wie nicht, es ist eine Menge Information. Eine Menge Videos auf YouTube in russischer Sprache.

 

Es gibt viele Videos, aber sie erklären nicht die Feinheiten.

 
Grigoriy Chaunin:

Es gibt viele Videos, aber sie erklären nicht die Feinheiten.

+1

Es gibt Tausende von Artikeln darüber, wie man mit Hilfe von Backward Descent und einigen komplexen Formeln neuronale Systeme trainiert. Aber wie durch ein Wunder kann man auf seltene Artikel stoßen, die den Prozess in einfachen Begriffen in Form von Mathematik und Ableitungen erklären, was genau das ist, was man braucht, um zu __verstehen_, wie der Lernprozess abläuft. Wenn man es versteht, kann man leicht Neuronen in einer beliebigen Programmiersprache, mit beliebigen Schichten und Aktivierungsfunktionen erstellen.