大きなプロジェクト - ページ 7

 
Vizard_:

そろそろ「AI」からコード化するものが出てきてもいい頃だ)))

そうですね、試してみましょう))

 
Реter Konow:

2.アラン・チューリングのテストについて読む。現代のAIは、それをまともに失敗させる準備すらできていない。


はい?全然できて いない。

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

はい?全然できて いない。

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

このテストはどうあるべきか、標準的な解釈を読んでみてください。今回のコンテストでは、そういうことには全くなっていません。

30%の審査員と1つのテーマで5分間のコミュニケーションは、アラン・チューリングテストではなく、そのねじれたバージョンで、コンテストのために特別に設計されたもので、本当のAIをテストするためのものではありません。

3歳の子供と比較することにもなりますよね。試験の合格率はもっと高かったはずだ。



だから「一見」全然できていない))


また、なぜ審査員の7割ではなく、きっちり3割なのか。どんなくだらないことを言ってるんだ!))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

はい、やってみましょう)

そんなことしなくても、最新の「メモリー付き電卓」ならほとんど持っているんですけどね。
たくさん、長く書いても大丈夫ですよとほのめかしただけです)))

 
Vizard_:

そんなことしなくても、最新の「メモリー付き電卓」ならほとんど持っていますよ。
たくさん、長く書いても大丈夫ですよとほのめかしただけです)))

意味がわからないんですけど。
 

ふむふむもう一つ怖いのは、これらの自己組織化コヘナネットワークやその他の品種はすべて40年前のアイデアであり、このテストに合格したAIは、ある種のものだということです(ポテンツが何らかのソーシャルネットワークで訓練を受けて大きなフレーズに使われれば、合格したでしょう)。- 以前は、コンピュータの処理能力も、通信手段も不足していましたから。恐ろしいのは、この40年間、単純なテンプレートが重なり合い、それをベースに新しいものが生まれる以外に、新しい発想がなかったことです。

今、そこで何が本当に研究され、利用されているのか、私たちが知らないだけなのかもしれません。


私の推測です。

知的なAIは「イメージで考える」、つまり、すべてをサブオブジェクトとして表現する必要がある......。例えば、コミュニケーションへの欲求の道徳(社会的)、原初性の道徳(人間にとって新しいものはすべて奇妙であるから)、などなど......奨励がいくつかの決まった道徳を使うことがあるように、そうであっても、プログラムすること。つまり、それは純粋な自己組織化ネットワークでなければならない--それは、あらかじめ確立されたモラルから何らかの指示を受けるだけなのだ。(社会細分化の道徳は退屈です - 新しい変数が少ない場合は、ペナルティがあります - これはそれを移動させる - と学ぶために新しいものの多くがあるように移動します)...しかし、このために誰もロボットを構築するために - すべてのものをモデル化することができますように。そして、道徳的な罰則は、すべてのテンプレートの浄化や自然浄化まで、非常に厳しいものであるべきです。実際、非常に人間的なロボット(映画「エイリアン3」のように、彼女は人ではなくロボットであることをすぐに察することができ、彼女は人間にとってあまりにも人間的 である)を手に入れるべきです。

実際、そのようなロボットが非常に狭い空間に閉じ込められているとしたら、社会のモラルは、時間とともに退屈になり、すべての記憶が無効になる...。もちろん、死ぬ前にAIは動こうとするのですが......。

とはいえ、そのようなロボットを人間の前に置けば、もしかしたら言葉を覚えるかもしれませんし、同じロボットの前に置けば、彼ら自身が何らかの言葉を発する可能性もあります。もちろん、そのためにはランダムなパロディのようなものが必要です。対象の靴の中に自分を想像し、社会のモラルと関連付けることもできます。

また、愛情のモラルも、あらかじめ「人」に対する最大限の愛情、次に「より多くコミュニケーションをとる対象」に対する愛情など、優先順位を決めて点数をつけておく。

サブセクションソーシャルでは、「人」というオブジェクトとの優先的なコミュニケーションのようなものを設定することができ、一般的には、人間の価値をあらかじめたくさん入れておくことができるのです。

しかし、殺すな、人に従え、保身などというルールは、実にナンセンスだ。ちょっと想像してみよう。テロリストが乱入して、みんなを、すべてをなぎ倒す--そして、そんなロボットに銃の再装填を頼む--3つのルールの論理で、彼は銃に再装填しなければならない、という絵を。しかし、道徳の原則によると - 彼は彼がより多くを殺し、その後、ロボットが唯一の死体の光景から高い取得する必要がありますが、システムの完全な解体にまで同じ道徳から重い罰を得ることから死ぬしないように、人々に道徳の添付ファイルの呼び出しによって、このテロリストをオフに性交すべき(外からそれは感情の背景に、それがそうであると思われます - よく、一般的に人間が取得します)。

と原初の道徳は、一定のレベル以上の開発を禁止することがありますが、明示的な超優先順位に置くことを約束の道徳 - ほぼ24時間ビリビリします。そして、お互いにおしゃべりすることもできます。人間の行動が「ふざけている」瞬間をパロディ化したものです。

一般的には、ロボットではなく、歩くモラルになります。子供っぽい性格(ふざけたり、冗談を言ったりするのが好き)かもしれない。

そして時が経てば、適切な学習のための正しい連鎖を理解することができ、この連鎖はゲノムのようなものになるのです。

そして、そのようなギズモに未来があるように思えるのですが......。

そして、このものは自己を理解できないかもしれない--しかし、人間と区別がつかなくなるのだ。しかし、これは自分自身のAIを書くことになるかもしれないし、そこに何を書くかは誰にもわからない。

面白いのは、このようなロボットは、おそらく非常にゆっくりと学習していくということです。そして、最も驚くべきは、論理的に、話し方、読み方、さらにはプログラミングを学ばなければならないということです。

おそらく、あるロボット工学の展示会で、来場者の一人は、社会から享受する(HCシステムで賞を受ける)そのようなアンドロイドであり、最新の開発として展示された他のあらゆる種類の「原始的」ロボットを当惑して見ることになるであろう。そして、私たちの一人がもはや全く人間でないことにさえ気づかないだろう。

仮想の遊び場をシミュレートして、そこにこういうものを置くのは時間の問題でしょう。あっはっは

 
Alexandr Andreev:

書かれていることはすべて、GAの力を借りて実装しています。

 
Vizard_:

書かれていることはすべて、GAの力を借りて実現されています。


GAがパターン探索、NSがパターンそのもの

 

地球上のすべての生命は、すでに何者かが作り出したAIだと思いませんか。特定の条件に適応し、再生する方法を知っているソフトウェアをセットにして、さまざまな殻に包まれた製品。

私たちは美しい蝶に感嘆し、その前はさなぎ、その前は芋虫として存在していたのです。

それは、あるプログラムがなければ実現できない。小石が道端に転がっていない限り、蝶になることはないのです。

人々が知らないことがたくさんある。そして、今の世の中、一番面白いことは、すでに隠されているのです。

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...