00:05:00 このセクションでは、講演者はスマート アプリの構築方法と、アーキテクチャ上の決定事項と技術スタックがこのプロセスを導くものについて説明します。オプションには、ネイティブ アプリのビルド、Web 用のビルド、またはデスクトップ用のビルドが含まれます。講演者は、スマートなアプリを構築するために Web に固執することを推奨し、Web 開発者と機械学習エンジニアの間のスキルセットの違いにもかかわらず、これらの分野を収束させる方法があることを説明します。講演者は、機械学習モデルの正確な配信と継続的な改善を保証する ML Ops チームだけでなく、DevOps、データ ソーシングとクリーニング、トレーニング、反復の使用を引用して、開発者と機械学習エンジニア間のコラボレーションを説明します。
00:10:00 個人的な逸話として、講演者は、機械学習エンジニアリングと Web アプリの作成における隔たりを埋めることは、架け橋への恐怖を克服するよりも困難ではないことを説明しています。講演者は、TensorFlow.js、Brain.js、ONNX など、機械学習技術を Web アプリに組み込むためのさまざまなツールを紹介します。彼女は各ツールの利点を強調し、視聴者に TensorFlow ウェブサイトを探索して、それらが提供するクールなデモを発見するよう勧めています。彼女はまた、ONNX ランタイムと、ONNX ベースのモデルを Web アプリに導入するその機能にも焦点を当てています。全体として、講演者は、機械学習技術を使用してアプリを強化するために利用できるツールに関する知識をアプリ開発者に提供することを目的としています。
This conference talk was delivered via the One Million Arab Coders initiative. It gives an overview of what applied ML is, how we need to bridge the divide b...
Both data processing platforms and deep learning frameworks are evolving in their own fields. Usually, Spark is used for offline data processing, and then va...
00:25:00 ビデオ作成者が ONNX を使用してモデルを読み込んで推論を実行する方法を探る新しいセクションを開始します。推論セッションの作成と、モデル パスからのモデルの読み込みについて説明します。作成者はモデルを API に組み込むことを計画していますが、ハンドラーで音声を取得する方法がわかりません。彼らは base 64 のものを使用することを検討し、それをテストするために新しいファイルを作成します。次に、モデルをロードせずに推論を実行する方法の議論に移り、代わりにそれに集中することにしました。
Last week, we built a Shazam clone using Self-supervised learning (SimCLR).Let's get the model out of Colab and run inference in production with ONNX!I have ...
00:10:00 このセクションでは、スピーカーは、ニューラル ネットワーク圧縮フレームワークで量子化を使用してハグ顔モデルを最適化する方法について説明します。 Optimum Intel と OV Config を使用してトレーニング中に量子化を有効にする方法を示すコード例について説明します。また、データの準備、モデルのトレーニング、推論、展開、自動化を統合して、開発者と顧客が複雑なアクティビティをより効率的に実行できるようにする AI ワークフローも紹介します。スピーカーは、Azure ML を使用してこれらのワークフローをサポートし、パフォーマンスを向上させる方法を示します。
00:15:00 ビデオのこのセクションでは、講演者が Azure ML、Optimum、ONNX ランタイム、および OpenVINO を使用したトレーニングと推論のプロセスについて説明します。まず、トレーニング パイプラインに使用されるファイルとスクリプト、およびジョブを Azure ML に送信する方法について説明します。次に、推論スクリプトと、それが ONNX ランタイムと OpenVINO 実行プロバイダーをどのように利用するかについて説明します。スピーカーは、モデルの量子化とトレーニングの F1 スコア結果の詳細を提供し、このプロセス中に精度がわずかに低下しただけであることを示しています。全体として、このセクションでは、これらのテクノロジを使用したトレーニングと推論のプロセスの詳細な概要を提供します。
00:20:00 このセクションでは、スピーカーは、fp32 の元のモデルと、Netron によって視覚化された int 8 に最適化されたモデルを示すことによって、量子化プロセスがどのように機能するかを示します。また、Azure ML と OpenVINO を活用して、トレーニングと推論のプロセスで精度とパフォーマンスを向上させる方法についても説明します。彼らは、ONNX ランタイムを使用してパフォーマンスをさらに最適化および改善することに言及し、視聴者にコードとブログ投稿をチェックして詳細を確認するよう勧めています。全体として、このデモンストレーションは、複数のツールを組み合わせて開発者のワークフローを簡素化し、モデルの精度と速度を向上させる力を示しています。
Devang Aggarwal, and Akhila Vidiyala from Intel join Cassie Breviu to talk about Intel OpenVINO + ONNX Runtime. We'll look at how you can optimize large BERT...
Join Ragesh in his interview with Devang Aggarwal, a product manager at Intel with Intel’s OpenVINO™ AI framework engineering team doing work around deep lea...
ONNX Runtime is a high-performance inferencing and training engine for machine learning models. This show focuses on ONNX Runtime for model inference. ONNX R...
Question Generation using NLP course link: https://bit.ly/2PunWiWThe Colab notebook shown in the video is available in the course.With the conversion of T5 t...
00:05:00 このセクションでは、異なる AI フレームワーク間の互換性の問題と、それがビジネスに与える影響について話します。銀行の例を挙げて、ある企業が 1 つの AI フレームワークでシステムを構築した場合、別のフレームワークを使用したいという新しい顧客が来た場合、その企業はシステムをゼロから完全に再構築する必要があり、コストがかかると説明しています。時間もお金も。次に、Onex ランタイムについて説明します。これにより、企業は完全な再構築を必要とせずに、既存のフレームワークとモデルを互換性のある形式に変換できます。講演者は、これらの変換されたモデルを分析および最適化するために利用できるツールについても言及しています。
00:10:00 このセクションでは、Azure AI と ONNX ランタイムを使用して、さまざまなプラットフォームに機械学習モデルを簡単にデプロイする方法について講演者が説明します。プラットフォームと言語に適したオプションを選択することで、企業はソフトウェアを使用してニューラル ネットワークの 0 と 1 のシーケンスをロードし、選択したプラットフォームと言語を利用してシステムをエクスポートし、簡単に展開できます。このセッションでは、Onex を使用して開発プロセス全体でトレーニングを最適化する方法についても説明します。これにより、より迅速かつ正確な結果が得られます。講演者は、Intel serrandello の GPU と CPU 向けの自動最適化システムも紹介します。これにより、モデル開発がさらに合理化されます。
00:15:00 このセクションでは、ML 環境の作成と、がく片と花弁の長さと幅に基づく植物種の分類器の開発について話します。講演者は、ML 環境を作成するには、以前はサーバーのクラスターを購入してすべてを手動で構成する必要がありましたが、今では独自の ML 環境を作成し、ハードウェアを必要とせずに独自のスタジオを立ち上げることができると述べています。彼らの ML 環境には、通常の仮想マシンと、TensorFlow モデルを保存するために使用される ONNX が含まれています。次にスピーカーは、与えられたパラメーターに基づいて植物種を分類する単純なニューラル ネットワークの作成を実演します。
00:25:00 このセクションでは、講演者は、Azure AI と ONNX ランタイムによって機械学習モデルをさまざまなアプリケーションに簡単に統合する方法について説明します。 Azure AI を使用すると、顧客は好みの言語でモデルを作成するだけで済み、Azure AI を使用してモデルを読み込み、モデルを呼び出すために必要な入力データを作成できます。その後、ONNX ランタイムを使用して、基盤となるプラットフォームに関係なく、Xamarin、Android、Mac などのさまざまなアプリケーションにモデルを統合できます。これにより、さまざまなデバイスやプラットフォームで機械学習モデルを簡単に統合できます。また、スピーカーは、ONNX ランタイムがモバイル デバイス用を含むさまざまなプロセッサに最適化されていることにも注目しています。
Language: ItalianoAbstract:We will see how to create an AI model with Azure, turn it into ONNX, and use it in our .NET services natively with ONNX Runtime. A...
Deploying Machine Learning Models is hard. ONNX tries to make this process easier. You can build a model in almost any framework you're comfortable with and ...
In this video you learn how to Build and Deploy an Image Classifier with TensorFlow and GraphPipe. You can use the same technique to deploy models of other f...
ONNX ランタイムによる応用機械学習
ONNX ランタイムによる応用機械学習
Microsoft のプリンシパル Education Cloud Advocate である Jennifer Looper が、このビデオでアプリ構築、機械学習、データ サイエンスの収束について説明しています。彼女は Web 用のスマート アプリを構築することを推奨し、機械学習テクノロジをアプリに組み込むために、ml5.js、Magenta.js、PoseNet、Brain.js などのさまざまな JavaScript API を調べています。 Looper は、古典的な機械学習に対する scikit-learn の有用性を強調し、ニューラル ネットワークの重いソリューションを必要としない強力なツールとしてそれを推奨しています。また、機械学習と深層学習モデルを構築するための共通の演算子セットを定義することでトレーニングと推論を最適化する Onnx ランタイムについても説明し、教師あり機械学習を使用して基本的な分類タスクを実行するプロセスを説明するために、Kaggle からデータを取得します。次にスピーカーは、機械学習モデルを使用してレコメンデーション エンジンを構築する方法を実演し、機械学習についてさらに学習するために Microsoft のオンライン リソースにアクセスすることを提案します。彼女は、Onnx ランタイムは、カリキュラムの一部として初心者に適しているか、機械学習についてもっと学びたい人に適していると結論付けています。
これまでにない ONNX のパワーを Spark にもたらします
これまでにない ONNX のパワーを Spark にもたらします
このビデオでは、Huawei の Shivan Wang が、推論のために ONNX の能力を Spark にもたらす方法を説明しています。彼は、Spark に DL モデルを展開する際の課題と、Spark コミュニティがプロセスを簡素化するために Spip と呼ばれる提案をどのように開始したかについて説明します。講演者は、ファーウェイの AI プロセッサ、Ascent、および複数の Ascent プロセッサ モデルと Atlas ハードウェアを含む Ascent AI エコシステムについても説明します。彼は、モデル変換を必要とせずに、Ascent ハードウェアで ONNX モデルを直接使用するために、次のランタイムで新しい実行プロバイダーとして Con を追加することを提案しています。最後に彼は、ONNX のパワーを Spark にもたらす POC コードがほぼ完成していることに言及しており、興味のあるユーザーがメッセージを残して議論し、テスト目的でリソースを提供する可能性があることを歓迎しています。
Builders Build #3 - ONNX を使用した Colab から本番環境へ
Builders Build #3 - ONNX を使用した Colab から本番環境へ
このビデオは、ONNX を使用して Colab から本番環境にプロジェクトをデプロイするプロセスを示しています。プレゼンターは、シグナルの前処理、デプロイ用のコードの変更、AWS Lambda でのハンドラーの作成、ウェブサイトでの音声入力の受け入れ、関数の S3 へのアップロード、ONNX の依存関係のデプロイなど、さまざまな側面をカバーしています。いくつかの問題に遭遇したにもかかわらず、講演者は AWS を使用してモデルを正常にデプロイし、今後のステップのためにブラウザロード base64 ファイルオブジェクトまたはサウンドファイル読み取りビットを使用できることを提案しました。
さらに、このビデオでは、SimCLR モデルを使用してオーディオの対照学習を行い、モデルに曲をフィードしてカタログを作成し、PyTorch でトレーニングしてゼロ損失と k=1 でのリコールを達成する方法を紹介しています。プレゼンターは、本番環境で PyTorch を使用する際の課題について説明し、ソリューションとして ONNX を提案します。このビデオでは、PyTorch モデルを ONNX 形式でエクスポートおよびロードし、推論を実行する方法を示します。また、Torch Audio および Numpy ライブラリを使用してオーディオ ファイルを処理する方法を示し、デプロイ用に PyTorch モデルをセットアップする際の問題をトラブルシューティングします。このビデオでは、モデルを Colab ノートブックでの開発から本番環境に移行する方法についての洞察を提供します。
Optimum、OpenVINO™、ONNX ランタイム、および Azure の力を組み合わせる
Optimum、OpenVINO™、ONNX ランタイム、および Azure の力を組み合わせる
このビデオでは、Optimum、OpenVINO、ONNX ランタイム、および Azure の組み合わせを紹介して、開発者のワークフローを簡素化し、モデルの精度と速度を向上させています。講演者は、ヘルパー関数、ONNX ランタイム、および OpenVINO 実行プロバイダーを使用してディープ ラーニング モデルを最適化する方法を実演します。また、Neural Network Compression Framework の量子化を使用してハグ顔モデルを最適化する方法を示し、Azure ML、Optimum、ONNX ランタイム、および OpenVINO を使用したトレーニングと推論のプロセスを示します。このデモンストレーションでは、精度の低下を最小限に抑えながらモデルのパフォーマンスを向上させるこれらのツールの威力を強調しています。
ONNX モデルのより高速な推論 |開発者向けエッジ イノベーション シリーズ |インテル ソフトウェア
ONNX モデルのより高速な推論 |開発者向けエッジ イノベーション シリーズ |インテル ソフトウェア
このビデオでは、ONNX ランタイム用の OpenVINO 実行プロバイダーについて説明します。これはクロスプラットフォームの機械学習モデル アクセラレータであり、さまざまな Intel コンピューティング デバイスにディープ ラーニング モデルを展開できます。 Intel ハードウェア用に最適化された OpenVINO ツールキットを使用し、コード内でプロバイダーを OpenVINO 実行プロバイダーとして設定することで、開発者は高度な最適化手法を使用して ONNX モデルの推論を高速化できます。ビデオは、説明したツールを利用するために必要な変更の単純さを強調しています。
クラウドからクライアントへの ONNX ランタイムによるモデル推論の高速化と軽量化
クラウドからクライアントへの ONNX ランタイムによるモデル推論の高速化と軽量化
このビデオでは、Microsoft Cloud および AI グループの Emma が、Open Neural Network Exchange (ONNX) と、さまざまなハードウェアで ONNX モデルを推論するための高性能エンジンである ONNX ランタイムについて説明します。 Emma は、ONNX ランタイム INT8 量子化が提供できる大幅なパフォーマンスの向上とモデル サイズの縮小、および精度の重要性について説明します。彼女は、ONNX ランタイム INT8 量子化のエンド ツー エンドのワークフローを示し、PyTorch 量子化を使用したベースライン モデルの結果を提示します。さらに、Emma は、クラウドからクライアントへのモデル推論を最適化する ONNX ランタイムの機能と、デフォルトで Android と iOS プラットフォームの両方で 300 キロバイト未満のサイズを達成する方法について説明します。
ONNX 変換と量子化による高速 T5 変換モデル CPU 推論
ONNX 変換と量子化による高速 T5 変換モデル CPU 推論
T5 Transformer モデルを ONNX に変換し、量子化を実装することで、モデル サイズを 3 倍に縮小し、推論速度を最大 5 倍にすることができます。これは、T5 などの質問生成モデルを 1 秒未満のレイテンシーで CPU にデプロイする場合に特に役立ちます。さらに、Gradio アプリは、モデルに視覚的に魅力的なインターフェイスを提供します。 Huggingface の T5 変換モデルが利用され、ONNX と量子化には FastT5 ライブラリが使用されます。これらの最適化を実装すると、これらのシステムの実稼働展開の大幅なコスト削減につながる可能性があります。
Azure AI と ONNX ランタイム
Azure AI と ONNX ランタイム
このテキストは、機械学習とその展開のさまざまな側面をカバーしています。データ サイエンスの進化、フレームワークの互換性の課題、モデル デプロイのための Azure AI と ONNX ランタイムの使用、ML 環境の作成、ONNX ランタイムの制限について説明します。スピーカーは、ONNX の標準化と複数のフレームワークのサポートを強調し、さまざまなハードウェアの最適化を容易にします。このビデオでは、ハードウェア設定のベンチマークがないこと、および ONNX の制限を克服するために複数のツールを使用する必要があることについても言及しています。
ONNX を使用して、機械学習をどこにでもデプロイします。 Azure ml.net 関数で実行される Python SKLearn モデル
ONNX を使用して、機械学習をどこにでもデプロイします。 Azure ml.net 関数で実行される Python SKLearn モデル
このビデオでは、ONNX ランタイムが、さまざまな言語やフレームワークで構築された機械学習モデルの展開を簡素化および標準化する方法を紹介しています。 Python scikit-learn モデルを ONNX モデルにパッケージ化し、それを Azure ML .NET 関数にデプロイするプロセスを示します。このビデオでは、HTTP POST 要求を介して Azure 関数を簡単にトリガーできるため、任意のアプリケーションや Web サイトから簡単に呼び出すことができ、機械学習モデルの構築に使用された言語に関係なく、ONNX モデルに変換して、 ML.NET を介して展開され、一貫して実行されます。
機械学習モデル (TensorFlow/Caffe2/ONNX) のデプロイ - 迅速かつ簡単
機械学習モデル (TensorFlow/Caffe2/ONNX) のデプロイ - 迅速かつ簡単
このビデオでは、転送学習を使用して画像を分類する方法と、Python と TensorFlow を使用して画像分類モデルをエンドユーザー アプリケーションに統合する方法を示します。プレゼンターは、自動車取引アプリケーションの例を使用して、必要な視点から写真がアップロードされず、ラベルを手動でチェックする必要があり、退屈で非効率につながる場合に直面する課題を説明します。彼は、転移学習技術を使用して写真の視点を認識するように既存のニューラル ネットワークをトレーニングすることで、これらの課題を克服する方法を説明しています。次に、GraphPipe オープンソース プロジェクトを使用して、モデルをテストし、Oracle クラウドにデプロイする方法を示します。最後に、発表者は機械学習モデルを実験段階から生産段階に移行することの重要性を強調しています。