人工知能2020 - 進歩はあるのか? - ページ 52

 
Реter Konow:
トランジスタといえば、これもアナログ基板を動作させるために改造が必要です。結局、トランジスタはビット、つまり「数値のビット」を記憶するのに対して、アナログの数値は電流の振幅であって、割り込みではないので、数値全体を電圧として記憶する必要があります(電池のように)。
つまり、トランジスタ1個1個が電池になるわけだ。同じ(あるいはそれ以上の)情報量を記憶するために、トランジスタの数を8倍以上に減らすことができるのだ。しかし、トランジスタ間の導体は、様々な要因に抵抗値が敏感に反応するため、データ転送のエラーを減らすためにミクロン単位で校正する必要がある。
 
一般的に、アナログコンピュータのコンセプトを表面的に分析した結果、製造コストが高く、複雑なため、すぐにはないだろうと判断しています。でも、デジタルプロセッサーとデジタルメモリーの組み合わせは、やはり面白そうですね。考えないといけない。
 
初級:int:8ビット×4バイト=32ビットのデジタル情報を状態(1か0)で符号化したもので、40億以上の値域を持つ。これをアナログに変換する場合、信号の振幅(電圧)精度は小数点以下9桁のゼロがないと、送受信信号で元の数値が歪んでしまう。
しかし、この信号が伝送されるとき、その経路には様々な要因によって導体抵抗が存在し、どうしても信号を壊してしまうし、番号変換が起きないという保証はないのです。

だから、アナログのコンピューターはないでしょう。チップだけかもしれませんが。
 
Реter Konow:
初級:int:8ビット×4バイト=32ビットのデジタル情報を状態(1か0)で符号化したもので、40億以上の値域がある。これをアナログに変換する場合、信号の振幅(電圧)精度は小数点以下9桁のゼロがないと、送受信信号で元の数値が歪んでしまう。
しかし、この信号が伝送されるとき、その経路には様々な要因によって導体抵抗が存在し、どうしても信号を壊してしまうし、番号変換が起きないという保証はないのです。

だから、アナログのコンピューターはないでしょう。チップだけかもしれませんが。
すでに書いたように、±20%の誤差が許容されるなら、何かを作ることは十分可能です。1~5%を達成するためには、価格が非常に高くなるのではと思います。同じ抵抗でも、標準品として刻印されているものは10~20%の誤差がある。1%の精度で製造された精密な抵抗器です。製造時に結晶格子を焼結するため、小さな材料欠陥による誤差が1つでもある。
22nmの水晶でどうやるのか......想像がつきませんね、あそこは細かいので、トリミングができないんですよ......。
だから、言われるような高精度は出ない。
 
Rorschach:

グリッドはすでにプログラムを書く ことができる

GPT-3に関する一般的な情報を翻訳したもの:(翻訳に不具合があります。)

ウィキペディア

Generative Pre-trained Transducer 3(GPT-3)は、ディープラーニングを用いて人間のようなテキストを生成する自己回帰型言語モデルです。サンフランシスコの人工知能研究所OpenAIが作成したGPT-nシリーズの第3世代言語予測モデルである。[2] フルバージョンのGPT-3は、前身のGPT-2より2桁多い1750億個の機械学習パラメータを搭載しています。[1]: 2020年5月に導入され、2020年7月からベータテストが行われている「GPT-3」14件。[3]は、自然言語処理(NLP)システムにおける「事前に学習された言語表現」というトレンドの一部である。[1] GPT-3のリリース以前、最大の言語モデルは2020年2月に登場したMicrosoftのTuring NLGであり、GPT-3の10倍の帯域幅を有していた。[4]

GPT-3が生成するテキストは、人間が書いたテキストと見分けがつかないほど高品質であり、メリットとリスクの両方がある。[4] OpenAIの研究者・技術者31名が、2020年5月28日付けでGPT-3を提示するソースペーパーを提出した。彼らは論文の中で、GPT-3の潜在的な危険性を警告し、そのリスクを軽減するための研究を呼びかけています。オーストラリアの哲学者David Chalmersは、GPT-3を「これまで作られた中で最も興味深く、重要なAIシステムの一つ」と評している[1]。"[5] GPT-3は、ウェブサイトを作成し、質問に答え、薬を処方することができる。[6]

エコノミスト』誌によれば、アルゴリズムの改良、強力なコンピューター、デジタル化されたデータの増加が機械学習の革命を起こし、新しい技術によって2010年代には言語操作などの「タスクが急速に改善された」[7]という。ソフトウェアモデルは、数千から数百万の例を用いて、「構造...」で学習される。脳の神経構造に緩やかに基づいている"自然言語処理(NLP)で最もよく使われるアーキテクチャはニューラルネットワークである[7]。[8] 2017年に初めて登場した深層学習モデル「トランスフォーマー機械学習モデル」をベースにしています。[8] GPT-nモデルは、このディープラーニングニューラルネットワークアーキテクチャをベースにしています。質問に対して、処理、分析、整理、リンク、対比、理解、答えを生成することができるNLPシステムが数多く存在する[9]。


歴史

2018年6月11日、OpenAIの研究者とエンジニアは、生成モデル - 言語モデル - 人工知能システムに関するオリジナル論文を発表し、彼らが生成的事前訓練(generative pre-training)と呼ぶプロセスでデータセットを使用して巨大で多様なテキストコーパスを事前に訓練することができる。 トレーニング(GP)。[10] 著者らは、自然言語処理(NLP)における言語理解性能が、生成的事前学習(GPT-n)において、「ラベルのないテキストの多様なコーパスに対する言語モデルの生成的事前学習、その後の各特定タスクに対する識別的調整」というプロセスによって向上したことを述べている。これにより、人による監視や時間のかかる手作業でのラベリングが不要になりました[10]。

2020年2月、マイクロソフトが発表したT-NLG(Turing Natural Language Generation)は、当時 "170億のパラメータを持つ史上最大の言語モデル "だった。[11] テキストの要約や質問への回答を含む様々なタスクにおいて、他のどの言語モデルよりも優れたパフォーマンスを発揮しました。


能力です。

2020年5月28日付けのarXivのプレプリントで、31人のOpenAIのエンジニアと研究者のチームが、GPT-3 [1][4] またはGenerative Pretrained Transformer 3という第3世代の言語モデルという「最新の言語モデル」の開発について述べている。GPT-3は、前モデルのGPT-2と比較して2桁以上容量を増やすことに成功し、ノンスパース言語モデルとしてはこれまでで最大となる。[1]: 14 [2] GPT-3はパラメータ数が多いため、容量の少ない従来品よりも高い精度が得られます。GPT-3はMicrosoft Turing NLGの10倍の能力を持っている[12]。[4]

GPT-3の重み付き事前学習データセットの60%は、4100億バイトのペアコード化されたトークンからなるCommon Crawlのフィルタリング版から得られています。[1]: 9 他のソースは、WebText2からの190億トークンで、これは22%の重み付け合計、Book1からの120億トークンで、これは8%、Book2からの550億トークンで、これは8%、Wikipediaからの30億トークンで、これは3%となります。[1]: 9 GPT-3は数千億語の単語を学習し、CSS、JSX、Pythonなどでのコーディングが可能です。[3] GPT-3の学習データは包括的であったため、異なる言語タスクのためにさらなる学習を必要としなかった。[3]

2020年6月11日、OpenAIは、この新しい技術の「長所と短所を探る」ための「機械学習ツール群」であるGPT-3ユーザーフレンドリーAPIへのアクセスをユーザーが要求できることを発表した[13][14]。このAPIは、通常の単一ユースケースではなく、ほぼ「あらゆる英語タスク」を実行できるユニバーサルなテキスト入出力インタフェースを備えていると招待状には書かれていた。[OpenAI GPT-3 API のクローズドな初期リリースにアクセスしたあるユーザーによると、GPT-3 は「恐ろしいほど優秀」で、いくつかの簡単なプロンプトだけで「驚くほどまとまったテキスト」を書くことができるそうです [15]。

GPT-3は「人間の評価者が人間が書いた記事と区別するのが難しいニュース記事を生成する」ことができるため [4] GPT-3は「言語モデルの有用な応用と有害な応用の両方を促進する可能性がある」 [1]: 34 2020年5月28日の論文で、研究者は「誤報、スパム、フィッシング、法的および政府プロセスの悪用、不正学術論文執筆、ソーシャルエンジニアリングの口実」などの、GPT-3による潜在的「有害作用」 [4] について詳しく述べている。"[1].このような危険性に注目し、リスク低減のための研究を呼びかけている。[1]:



OpenAIの新製品「GPT-3」。

OpenAIが開発した新しいAIモデルにアクセスするためのAPIを公開します。一般的なAIシステムは単一のユースケースを想定して設計されていますが、今日のAPIはユニバーサルな入出力インターフェースを提供しており、ユーザーはほとんどすべての英語タスクで試すことができます。お客様の製品にAPIを組み込む、まったく新しいアプリケーションを開発する、あるいは技術の長所と短所を探るために、アクセスをリクエストすることができるようになりました。

どのようなテキストリクエストでも、APIは指定されたパターンに一致するように、テキストの補完を返します。何をさせたいか、いくつかの例を示すだけで「プログラム」することができます。その成功は、通常、タスクの複雑さによって変化します。また、APIでは、提供するデータセット(小・大)の学習や、ユーザーや開発者からの学習により、特定のタスクに関する性能をチューニングすることができます。

機械学習チームの生産性を高めるために、使いやすく、柔軟性のあるAPIを設計しました。実際、私たちのチームの多くは、分散システムの問題ではなく、機械学習の研究に集中できるように、APIを利用しています。本日、APIは、GPT-3ファミリーのウェイトを搭載し、多くのスピードとスループットを改善したモデルを発売します。機械学習は非常に急速に進化しており、ユーザーの皆様が常に最新の情報を得られるよう、私たちは常に技術をアップデートしています。

この分野の進歩が速いということは、プラスもマイナスも含めて、AIの予想外の新用途が生まれることが多いということです。ストーキング、スパム、過激派、アストロターフィングなどの悪質な利用が判明している場合は、APIアクセスを停止します。しかし、この技術で起こりうるすべての結果を予見できるわけではないことも承知しています。そこで今日は、公開版ではなくプライベート・ベータ版を発表し、ユーザーがAPIから返されるコンテンツをよりよくコントロールするためのツールを構築し、セキュリティ問題を探っています。私たちが学んだことを共有することで、ユーザーや幅広いコミュニティがより人間らしい人工知能システムを構築できるようになるのです。

APIは、私たちがミッションを追求するための費用をまかなうための収入源であるだけでなく、技術の進歩、利用の確保、実社会での影響の検討など、普遍的なAI技術に焦点を当てることを後押ししてくれました。APIによって、有用な人工知能製品を作るための障壁が大きく下がり、今では想像もつかないようなツールやサービスにつながることを期待しています。

APIについてもっと知りたい方はこちらAlgolia、Quizlet、Redditなどの企業や、Middlebury Instituteなどの組織の研究者とともに、プライベートベータに参加しませんか?

GPT-3を今すぐ試したい方は、OpenAIのホワイトリストへの申請が必要です。しかし、このモデルの応用は無限大のようです。表向きは、SQLデータベースに平易な言葉で問い合わせる、自動的にコメントする、自動的にコードを作成する、派手な記事タイトルを書く、バイラルツイートを書くなど、様々な用途に使えます。


しかし、この驚くべきモデルのボンネットの下には何があるのでしょうか?ここでは、その内部を(簡単に)紹介します。

GPT-3は、ニューラルネットワークベースの言語モデルです。言語モデルとは、ある文章が世の中に存在する確率を予測するモデルである。例えば、言語モデルは「I'm taking my dog for a walk」というフレーズを「I'm taking my banana for a walk」というフレーズよりも存在する可能性が高い(つまり、オンライン)とマークするかもしれません。これは、文とフレーズの両方に当てはまりますし、より一般的には、あらゆる文字のシーケンスに当てはまります。

多くの言語モデルと同様、GPT-3はラベルのないテキストデータセットでエレガントに学習されます(この場合の学習データには、特にCommon CrawlとWikipediaが含まれます)。テキストからランダムに単語やフレーズが削除され、モデルは周囲の単語だけを文脈として使いながら、その部分を埋めることを学習する。これはシンプルな学習タスクであり、結果として強力で汎用性の高いモデルを実現します。

GPT-3モデルのアーキテクチャ自体は、トランスフォーマーベースのニューラルネットワークである。このアーキテクチャは2~3年ほど前に普及し、人気の高いBERT NLPモデルやGPT-3の前身であるGPT-2のベースとなったものです。アーキテクチャ的には、実はGPT-3はあまり新しくないのです

何がそんなに特別で不思議なのか?

本当に大きいんです。本当に大きいという意味です。1,750億ものパラメータを持つこのモデルは、これまでに作られた言語モデルの中で最大であり(最も近い競合製品よりも一桁大きい!)、すべての言語モデルの中で最大のデータセットで学習されている。これが、GPT-3が印象的な「賢さ」と「人間らしさ」を持つ最大の理由だと思われる。

しかし、ここからが本当に不思議なところです。GPT-3は、その大きさゆえに、他のモデルには(うまく)できないこと、つまり特別な構成なしに特定のタスクを実行することができます。翻訳家、プログラマー、詩人、有名作家など、10個以下の学習例で、GPT-3に依頼することができます。クソッ

それが、機械学習の実務家にとって、GPT-3の魅力です。他の言語モデル(BERTなど)では、(例えば)フランス語と英語の文のペアを何千例も集めて、翻訳の仕方を教えるという複雑な微調整の段階が必要です。特定のタスク(翻訳、要約、スパム検出など)用にBERTをカスタマイズするには、大規模な学習データセット(数千または数万例のオーダー)を探しに行く必要がありますが、タスクによっては面倒だったり扱いにくかったり、時には不可能だったりします。GPT-3では、この微調整のステップが必要ありません。それが本質です。GPT-3の魅力は、カスタマイズ可能な言語タスクで、学習するためのデータがないことです。

GPT-3は今日からプライベートベータ版ですが、早く手に入れたいですね。

この記事は、テキサス州オースティンを拠点に、機械学習の新しい分野や産業への応用に取り組むグーグルの応用人工知能エンジニア、デール・マーコウィッツが執筆したものです。また、人生の問題をAIで解決するのが趣味で、YouTubeで語っている。

 

正直、このGPT-3には圧倒されましたね。カッコイイですね))))


GPT 3 Demo and Explanation - An AI revolution from OpenAI
GPT 3 Demo and Explanation - An AI revolution from OpenAI
  • 2020.07.20
  • www.youtube.com
GPT 3 can write poetry, translate text, chat convincingly, and answer abstract questions. It's being used to code, design and much more. I'll give you a demo...
 

しかし、もっとクールなものが、すぐにやってくるのです。なぜ?GPT-3は効率的には地獄のように非効率だからです。

インターネットを走査する文章の中で、何十億もの言葉の組み合わせを頭に詰め込んだ私たちは、まだ誰も、本を書いたり、論理的かつ批判的に考えたり、計り知れないほど複雑で曖昧な問題を解決したりすることはできません。どうやって?

人間の学習は、情報の同化と処理のレベルが違う。GPT-3は、バックボーンやアーキタイプ、内部エンジンなど、内部の何かが著しく欠けている......。で、他は不明です...。

このネットワークの学習方法は、人間の学習と比べると欠陥があり、それを解明する必要があるのです。

 
Реter Konow:

正直、このGPT-3には圧倒されましたね。かっこいいですね ))))


アルゴリズムに新しいものはありませんが、パワーは新しい可能性とモデルクオリティのレベルを与えてくれます。175ydsは5000語ではありません)))。

 
Valeriy Yastremskiy:

アルゴリズムに新しいものはありませんが、パワーは新しい可能性とモデルクオリティのレベルを与えてくれます。175ヤードは5000語ではありません))))

それこそ、アルゴリズムに関する新しい情報は何もないんです。これらのネットワーク学習法はすべてすでに存在していたもので、違うのは規模だけです。

動作している動画例を探してみたところ、これが印象的でした。https://twitter.com/sharifshameem

これは、部分的な機能とともに、言葉による説明でインターフェースを作るものです。最初はナンセンスだと思ったのですが、よく見るとそうではないことに気づきました。しかし、まだその可能性の限界を十分に理解することはできませんでした。

 

GPT-3の対象範囲は不明です。