人工知能2020 - 進歩はあるのか? - ページ 13

 
そう、あなたはここで、たくさんのものを手に入れたのです。知能はまだ人間が決めたものです。しかし、それは第一段階です。第二段階、知性は知性を設定する、それは人類の終わりとなる
 
Vitaliy Maznev:

自分でも不思議なのですが、具体的にどのような思考回路が複雑なのでしょうか?

人間の場合、そこではすべてが複雑です。

人間の学習は、単にニューロン間の安定した結合の形成であり、結合が強ければ強いほど、より大きな経験をすることができる。

それは、歪み、心理的(認知)および外界の知覚の両方の歪みでより複雑です - 彼らは、以前の経験からエラーと補正を導入する


機械は以前の経験を比較することができず、新しい知識が役に立つか害になるかを判断することができません。

 
Реter Konow:

私自身、まだ理解していないので、どうしようもありません。私は、思考アルゴリズムが存在し、それがあるからこそ私たちは知的であるということだけを知っています。

まあ、言語運用形式を表現した以上、タスクにおける何らかの不協和音はここでは論理的に成立しているのだろうと思います。しかし、人と人の間でも同じように不協和音が生じる。一方が言うことは、必ずしも他方が聞くことではありません。そして、それは言語的な要素から発生する。そして、ここには少なくとも、話し手が不用意に表現した場合と、受け手がその表現を処理する場合の2段階の歪みが存在する可能性があるのです。

ここで、セマンティック・コンポーネントに話を戻そう。このレベルでは歪みは生じない。意味のレベルのアイデアは、生成と認識の両方が等しく存在する。その例として、ニューラル・インターフェースが挙げられるでしょう。結局のところ、これらは明確な意味コード(それが単純な神経刺激であれ、より拡張された意味配列であれ)を直接捕らえるものである。もしAIが本質的に意味的なフォーマットで作られていて、言語的な形式への変換も含めてオプションがあるのなら、情報を処理して適切な表現を生み出すことの難しさは、AIの犠牲になっているとは思えませんね。

むしろ、困難を主張する前に、少なくとも直接的に向き合うべきでしょう。では、複雑さが潜在的に定義されてもいないのに、どうして複雑さについて結論づけることができるのでしょうか。

 
Igor Makanu:

一方、機械はこれまでの経験を比較して、新しい知識が役に立つのか、逆に有害なのかを判断することはできない。

機械が経験を記録し、そこから結論を導き出すことを妨げるものは何でしょうか?多くの番組がそうなっているような気がします。例えば、テキストエディタでの修正候補を考えてみましょう。ここには、何が正しくて何が正しくないかもしれないという経験や推論が埋め込まれているのではないでしょうか?

 
Vitaliy Maznev:

機械が経験を記録し、そこから結論を導き出すことを妨げるものは何でしょうか?多くの番組がそうなっているような気がします。例えば、テキストエディタでの修正候補を考えてみましょう。何が正しくて、何が間違っていてもいいのか、何か固有の経験や結論があるのでは?

私はこう書いた--過ちは人間につきものであり、学び直しの過程ですら常に歪んでいる。

隣人は毎日毎晩酒を飲む酔っぱらいで、雷雨で雷が落ち、隣人の家が全焼した、というような普通の結論を出せば、酒は有害で、深刻な結果をもたらすかもしれない、ということになる ))))


車は雷と酒を比較するのか?- 人が、数で、自然現象と人間の弱さを比較することができるようになる。


ところで、偉大で才能ある科学者の多くは、不安定な精神状態、幼少期のトラウマ、困難な人生の状況、現実に対する認識の誤りなどを抱えており、それが才能を開花させる要因となっています......。が、それは定かではない!?

 
Igor Makanu:

は、雷と泥酔を比較する機械でしょうか?

どのようなデータを比較するのが難しいのでしょうか?特に、あるデータが重なることが多い場合は?1)あるデータから別のデータへの初期リンク、2)複数回クロスした場合の自動マッチングディレクションを設定することが可能です。最初はいろいろと調整が必要だとしよう。ただ、一般的には、こういったことは昔から実装されていたと個人的には見ています(これは主観的な視点とも取れますが)。

 
Vitaliy Maznev:

あるデータを比較する際の難しさとは?特に、あるデータが重なることが多い場合は?1)あるデータから別のデータへの初期リンク、2)複数回クロスした場合の自動マッチングディレクションを設定することが可能です。最初はいろいろと調整が必要だとしよう。しかし、一般的には、個人的には、これらのことはとっくに実装されていると見ています(これは主観的な視点ともとれますが)。

AIを開発した人によりますが、通常、誰もが機械が間違いを犯さないようにしたいと思うと同時に、機械は人間のように考えなければなりません。


そして、あなたが書いていることは古くから実装されており、エキスパートシステムと呼ばれています

 
Igor Makanu:

通常、誰もが機械が間違いを犯さないことを望みますが、同時に機械は人間のように考えなければなりません。人間は、部分的に間違いからなる経験のプリズムを通して考えることが非常に多いのです。

これは純粋に好みの問題です。統合失調症や分裂病と、それを除外するデータの両方を知性に入れることは可能だ。そして、最初にビューの境界と原則を定義することが可能である。この場合、AIはその人なりの方法で具体的に回答者とコミュニケーションをとることができるようになります。愚者は愚者として、科学者は科学者として。

 
Vitaliy Maznev:

まあ、言語運用形式を表現した以上、タスクの多少の不協和はここでは論理的にありえることだと思います。しかし、人と人の間でも同じように不協和音が生じる。一方が言うことは、必ずしも他方が聞くことではありません。そして、それは言語的な要素から発生する。そして、ここには少なくとも、話し手が不用意に表現した場合と、受け手がその表現を処理する場合の2段階の歪みが存在する可能性があるのです。

ここで、セマンティック・コンポーネントに話を戻そう。このレベルでは歪みは生じない。意味のレベルのアイデアは、生成と認識の両方が等しく存在する。その例として、ニューラル・インターフェースが挙げられるでしょう。結局のところ、これらは明確な意味コード(それが単純な神経刺激であれ、より拡張された意味配列であれ)を直接捕らえるものである。もしAIが本質的に意味的なフォーマットで作られていて、言語的な形式への変換も含めてオプションがあるのなら、情報を処理して適切な表現を生み出すことの難しさは、AIの犠牲になっているとは思えませんね。

むしろ主張する前に、複雑さを直接的に突きつけるくらいでないと。では、複雑さが潜在的に定義されてもいないのに、どうして複雑さについて結論づけることができるのでしょうか。

第一の困難は、意味のエンコードとその言語的な「包み」にある。一つの不変的な意味が、条件付きで無限に圧縮・展開される可能性があり、その抽出は非常に困難な作業である。文脈は一つで、包絡線は多義的である。 意味の包絡線表現を処理するのが主な仕事である。戦車の装甲を貫通させようとするようなものだ)。真正面から」やってもダメなんです。
 
Реter Konow:
第一の困難は、意味のエンコードとその言語的な「包み」である。一つの不変的な意味は、条件付きで無限の圧縮・展開形式を持ちうるため、その抽出は異常に困難な作業となる。文脈は単一で、包絡線は多義的である。 意味の包絡線表現を処理することが主なタスクである。戦車の装甲を貫通させようとするようなものだ)。真正面から」やってもダメなんです。

例を挙げてください。通常、(私の経験では)意味の形は、ある文脈から生まれる。サイコネシストみたいな奴もいるんだよ。分解されたそうです。そして、彼らの経験では、最初に何らかの背景があって、そこから図(意味の具体的な単位)が形成されることが分かっています。ただ、間違った方向からアプローチしているから、実際には発生しないかもしれない潜在的な困難が飛び出すのです。