Présentation d'OpenCL
La vidéo Introduction à OpenCL traite d'OpenCL en tant que langage de bas niveau pour le calcul parallèle de données hétérogènes hautes performances, prenant en charge plusieurs types d'appareils, notamment les processeurs, les GPU et les FPGA. OpenCL est devenu une norme ouverte en 2008 et a reçu un soutien important de la part de sociétés telles qu'Intel, Nvidia et AMD. Alors qu'OpenCL est souvent comparé à CUDA, qui dispose de meilleurs outils, fonctionnalités et support de Nvidia, OpenCL prend en charge plus d'appareils, ce qui le rend plus répandu parmi les fabricants. Pour les projets personnels, le conférencier suggère d'utiliser CUDA pour ses meilleurs outils et son optimisation, tandis qu'OpenCL est recommandé pour les produits professionnels qui doivent prendre en charge différents GPU.
- 00:00:00 Dans cette section, l'orateur présente OpenCL en tant que langage de bas niveau pour le calcul parallèle de données hétérogènes à hautes performances. OpenCL peut prendre en charge plusieurs types d'appareils, y compris les processeurs, les GPU et les FPGA, et est basé sur C 99, permettant la portabilité entre les appareils. OpenCL fournit également un moyen cohérent d'exprimer des vecteurs et dispose de bibliothèques mathématiques partagées et d'un processus de certification OpenCL qui garantit une précision garantie. L'orateur note qu'OpenCL est devenu une norme ouverte en 2008, bénéficiant d'un soutien industriel important de la part d'entreprises telles qu'Intel, Nvidia et AMD, ainsi que de fabricants d'appareils intégrés comme Ericsson, Nokia et Texas Instruments. Alors qu'OpenCL est souvent comparé à CUDA, qui dispose de meilleurs outils, fonctionnalités et support de Nvidia, OpenCL prend en charge plus d'appareils, ce qui le rend plus répandu parmi les fabricants.
- 00:05:00 Dans cette section, l'orateur discute des différences entre CUDA et OpenCL et quand choisir l'un plutôt que l'autre à des fins différentes. Pour les projets personnels, l'orateur suggère d'utiliser CUDA pour ses meilleurs outils, débogueurs et optimisations. Cependant, pour les produits professionnels qui doivent prendre en charge différents GPU, l'orateur recommande d'utiliser OpenCL car c'est le seul moyen de prendre en charge les GPU non Nvidia et évolue également avec le soutien de plusieurs sociétés. En ce qui concerne le cours, l'orateur suggère d'utiliser CUDA pour les meilleurs outils et un codage simplifié, mais OpenCL peut être plus facile à utiliser pour exploiter toutes les ressources informatiques.
- 2016.04.06
- www.youtube.com
A quoi sert OpenCL ?
L'orateur de la vidéo parle des avantages de l'utilisation d'OpenCL pour les programmes à forte intensité de calcul qui sont des données parallèles et une simple précision. Les GPU sont conçus pour les graphiques et sont idéaux en raison de la forte proportion d'opérations mathématiques par rapport aux opérations de mémoire. L'orateur explique que les boucles à haute intensité passent plus de temps à faire des opérations mathématiques, où les GPU excellent, tandis que les boucles à faible intensité passent la plupart de leur temps à attendre l'accès à la mémoire. Le parallélisme des données, qui consiste à effectuer les mêmes opérations indépendantes sur un grand nombre de données, est également exploré dans cette section. L'orateur discute également de l'utilisation de la simple et de la double précision dans OpenCL, où la double précision est plus coûteuse à exécuter car elle nécessite deux fois plus de données que la simple précision.
- 00: 00: 00 Dans cette section, l'orateur explique qu'OpenCL est bon pour les programmes à forte intensité de calcul qui sont des données parallèles et une simple précision. Les GPU sont conçus pour les graphiques et conviennent à ces types de programmes car ils sont intensifs en calcul, la proportion d'opérations mathématiques par rapport aux opérations de mémoire étant élevée. Les mathématiques sont rapides et la mémoire est lente, donc avoir beaucoup d'opérations mathématiques maintient la machine occupée tandis que les accès à la mémoire la ralentissent. L'orateur explique que les boucles à faible intensité passent la plupart de leur temps à attendre de la mémoire, tandis que les boucles à intensité plus élevée passent plus de temps à faire des opérations mathématiques, là où les GPU excellent. Le parallélisme des données, qui consiste à effectuer les mêmes opérations indépendantes sur un grand nombre de données, est également exploré dans cette section. Les exemples incluent la modification de pixels dans une image ou la mise à jour de points sur une grille.
- 00:05:00 Dans cette section, l'orateur explique comment fonctionne l'exécution parallèle des données dans OpenCL. Il déclare qu'il s'agit essentiellement d'opérations indépendantes sur un grand nombre de données, et que cela s'appelle l'exécution parallèle de données. L'orateur poursuit en expliquant que ce type d'exécution peut entraîner une perte de performances en raison des variations dans les calculs effectués sur les données, telles que celles qui peuvent se produire lors de l'exécution d'opérations sur des pixels de couleurs différentes. Il discute ensuite de l'utilisation de la simple et de la double précision dans OpenCL, déclarant que la double précision nécessite deux fois plus de données que la simple précision et est donc plus coûteuse à exécuter.
- 2016.04.06
- www.youtube.com
Dimensions locales et globales dans OpenCL
Dimensions locales et globales dans OpenCL (3)
Cette vidéo se penche sur le concept des dimensions globales et locales dans OpenCL et comment elles sont utilisées pour spécifier le parallélisme dans l'exécution du code. La dimension globale est un tableau 1D, 2D ou 3D qui détermine le nombre de threads ou d'éléments de travail à exécuter pour chaque exécution du noyau. Par exemple, si la dimension globale est un tableau 3D avec mille points, chaque point aura un thread ou un élément de travail exécuté. Pendant ce temps, la dimension locale divise la dimension globale en groupes de travail locaux ou groupes de threads qui fonctionnent ensemble, facilitant la synchronisation. La synchronisation n'est autorisée qu'au sein du même groupe de travail, il est donc essentiel de sélectionner des dimensions locales qui permettent la synchronisation requise. Pour résumer, la dimension globale établit le nombre de threads ou d'éléments de travail pour chaque exécution du noyau, tandis que la dimension locale partitionne la dimension globale en groupes de travail qui permettent la synchronisation. La sélection de dimensions locales appropriées est cruciale pour la synchronisation, étant donné qu'elle ne peut se produire qu'au sein d'un même groupe de travail.
- 2016.04.06
- www.youtube.com
Problèmes avec les dimensions locales dans OpenCL
Problèmes avec les dimensions locales dans OpenCL (4)
La vidéo explore plusieurs problèmes liés aux dimensions locales dans OpenCL, y compris les limitations de synchronisation et l'utilisation des appareils. La synchronisation est limitée au même groupe de travail sur le GPU, et la synchronisation globale est coûteuse et ne peut être utilisée qu'à la fin de l'exécution du noyau. Choisir la bonne taille de groupe de travail local est crucial pour éviter de gaspiller du matériel, et l'orateur suggère de sélectionner des dimensions qui sont de beaux multiples de la taille physique du matériel. La vidéo se termine en recommandant une approche par essais et erreurs pour trouver les meilleures dimensions pour des performances optimales.
- 00:00:00 Dans cette section, la vidéo explore deux problèmes liés à la synchronisation et à l'utilisation de l'appareil lors du choix des dimensions locales dans OpenCL. La taille du groupe de travail local est limitée à 512 threads, jusqu'à 1024, selon la complexité du code, et la synchronisation ne peut avoir lieu qu'au sein du même groupe de travail. La vidéo utilise une application de réduction pour démontrer le fonctionnement de la synchronisation et les limitations imposées par la taille des groupes de travail. La vidéo attribue la capacité de synchronisation limitée aux besoins d'évolutivité du GPU et au coût de la prise en charge de la synchronisation arbitraire ailleurs sur la puce.
- 00:05:00 Dans cette section, la vidéo explore les problèmes aux dimensions locales dans OpenCL. Le premier exemple montre comment l'utilisation de verrous tournants peut entraîner un blocage en raison du manque de garanties de progression de l'ordonnanceur. La vidéo explique également que la synchronisation globale ne peut être effectuée qu'à la fin de l'exécution du noyau, ce qui la rend coûteuse et oblige les programmeurs à planifier soigneusement leurs algorithmes. Un autre problème est l'utilisation des appareils lorsque la taille des groupes de travail locaux ne correspond pas à la taille des unités de calcul. Cela entraîne un gaspillage de certaines parties du matériel, et pour éviter ce problème, les programmeurs doivent choisir des dimensions qui fonctionnent bien pour le problème et correspondent bien à la taille du matériel.
- 00:10:00 Dans cette section, l'intervenant discute des facteurs qui influencent le choix des dimensions locales dans OpenCL. Ils expliquent que sur un GPU, il est préférable d'avoir plus de 2 000 éléments de travail dans de beaux multiples de la taille du matériel physique, comme 16 ou 3 200 pour la vidéo 64 et AMD. Pour les processeurs, il est préférable d'avoir deux fois plus de cœurs de processeur, mais cela peut varier en fonction des algorithmes utilisés. L'orateur suggère des essais et des erreurs jusqu'à ce que la meilleure performance soit atteinte.
- 2016.04.06
- www.youtube.com
Noyaux de calcul OpenCL
L'instructeur explique que les noyaux OpenCL sont du code C99 utilisé pour le calcul parallèle. Les noyaux sont exécutés des milliers de fois en parallèle et constituent la boucle interne du calcul. Les fonctionnalités OpenCL telles que les vecteurs, les arrondis et les conversions précis et les fonctions intrinsèques garantissent la précision. Les fonctions utilitaires d'OpenCL fournissent des informations sur les éléments de travail, tels que l'ID, les dimensions et les ID de groupe, permettant la création de noyaux flexibles qui peuvent s'adapter. Cependant, l'utilisation des fonctions de la bibliothèque OpenCL signifie un compromis entre la préférence et la précision, car la réorganisation des opérations de code parallèles peut affecter la séquence d'exécution et modifier les résultats, rendant l'exécution déterministe impossible sur tous les appareils.
- 00:00:00 Dans cette section, l'instructeur explique que les noyaux OpenCL ne sont essentiellement que du code C99 et sont utilisés pour spécifier les calculs qui seront effectués en parallèle. Le code est exécuté des milliers de fois en parallèle et constitue la boucle interne du calcul. L'instructeur donne ensuite un exemple d'une fonction C et comment elle peut être exécutée en parallèle à l'aide de noyaux OpenCL. Il parle également de certaines des fonctionnalités d'OpenCL, telles que les vecteurs, la capacité explicite de contrôler l'arrondi et les conversions, et les fonctions intrinsèques qui viennent avec une précision garantie. Les fonctions utilitaires d'OpenCL donnent également des informations sur chaque élément de travail, telles que l'ID de l'élément de travail, les dimensions, le nombre maximum dans une dimension particulière et les identifiants de groupe, ce qui aide à écrire des noyaux flexibles qui peuvent être intelligents pour déterminer le travail qu'ils doivent faire. . Dans l'ensemble, OpenCL améliore la capacité à créer du code portable et performant en offrant une disponibilité et une précision garanties.
- 00:05:00 Dans cette section, l'orateur explique le compromis entre préférence et précision lors de l'utilisation des fonctions de la bibliothèque de conformité OpenCL. Bien que ces fonctions garantissent la précision lors des tests, cela ne signifie pas nécessairement que les applications généreront les mêmes résultats sur toutes les machines OpenCL. La raison en est que le compilateur peut réorganiser les opérations en code parallèle, affectant la séquence d'exécution et éventuellement modifiant les résultats finaux. Par conséquent, bien qu'il soit préférable de créer du code sur ces fonctions de bibliothèque, une exécution déterministe sur tous les appareils ne peut pas être garantie.
- 2016.04.06
- www.youtube.com
Architecture d'exécution OpenCL
Architecture d'exécution OpenCL (6)
La vidéo traite de l'architecture de la plate-forme OpenCL, y compris ses périphériques tels que les GPU et les CPU connectés via un bus mémoire. Les contextes OpenCL sont également expliqués comme des regroupements d'appareils au sein d'une plate-forme, permettant un transfert de données optimisé entre eux. Les files d'attente de commandes sont introduites comme un moyen de soumettre du travail à différents appareils, mais la distribution du travail entre les appareils doit être effectuée manuellement car il n'y a pas de distribution automatique.
- 2016.04.06
- www.youtube.com
Mouvement de données dans OpenCL
Mouvement de données dans OpenCL (7)
La vidéo traite du mouvement des données dans OpenCL, où l'orateur explique les étapes manuelles nécessaires pour copier des données entre la mémoire hôte et le GPU, et la différence de vitesse entre la mémoire globale et locale. La mémoire globale du GPU a un accès plus rapide, mais la transmission des données de la mémoire hôte au GPU est lente. La mémoire locale dans OpenCL peut fournir des performances améliorées avec une bande passante massive, mais elle est plus difficile à utiliser que les caches car elle nécessite une allocation manuelle. Les GPU Nvidia modernes offrent le choix entre gérer manuellement la mémoire locale ou l'utiliser comme cache à la place, avec l'approche recommandée pour commencer avec un cache avant d'optimiser le mouvement des données locales.
- 00:00:00 Dans cette section, l'orateur explique comment fonctionne le déplacement des données dans OpenCL et les étapes manuelles requises pour copier les données de la mémoire hôte vers le GPU et inversement. Le GPU a une mémoire globale qui a un accès beaucoup plus rapide que la mémoire hôte, mais l'obtention de données de la mémoire hôte vers le GPU est lente en raison du bus PCIe. Le GPU dispose également d'une mémoire locale dotée d'une bande passante massive, et son utilisation peut améliorer considérablement les performances. Cependant, l'allocation et la copie des données dans la mémoire locale doivent être effectuées manuellement dans chaque unité de calcul, ce qui en fait une tâche fastidieuse.
- 00: 05: 00 Dans cette section, l'orateur parle de la mémoire locale dans OpenCL, qui peut aller de 16 à 48 kilo-octets, et comment elle peut fournir une bande passante plus élevée de milliers de gigaoctets par seconde. Cependant, la mémoire locale est plus difficile à utiliser que les caches car les caches placent automatiquement les données les plus récemment utilisées sans avoir besoin d'allouer différentes parties de la mémoire pour différentes données, tandis que la mémoire locale nécessite une allocation manuelle. Les GPU Nvidia modernes permettent de choisir entre gérer la mémoire locale manuellement ou l'utiliser comme cache, avec l'approche recommandée pour commencer avec un cache avant d'optimiser le mouvement des données locales.
OpenCL Hello World
Dans cette vidéo, le processus de création d'un programme à l'aide d'OpenCL et de sa soumission à un périphérique GPU est expliqué. L'orateur parcourt les étapes de construction du programme, de création de noyaux et d'objets mémoire et de copie de données entre CPU et GPU. Ils expliquent également le processus de définition des arguments et des dimensions du noyau, l'exécution du noyau et la récupération des résultats à partir du GPU. L'orateur note que les noyaux compliqués peuvent ne pas donner des performances optimales à la fois sur le CPU et le GPU et peuvent devoir être corrigés pour améliorer les performances. Ils comparent le processus de programmation en OpenCL à la résolution d'un problème mathématique, où les opérations sont répétées jusqu'à ce que le résultat souhaité soit atteint.
- 00:00:00 Dans cette section, l'orateur explique les étapes nécessaires pour configurer OpenCL et créer un programme en l'utilisant. Tout d'abord, les appareils et les plates-formes doivent être configurés et un contexte doit être créé pour l'exécution des commandes. Ensuite, des files d'attente de commandes sont créées pour soumettre le travail à différents appareils. Le code est ensuite compilé pour obtenir des objets noyau qui peuvent être soumis aux files d'attente. Les objets mémoire sont créés pour échanger des données entre les périphériques et les arguments sont configurés pour le noyau. Le noyau est ensuite mis en file d'attente pour exécution et les données sont recopiées du périphérique vers le CPU. Enfin, toutes les commandes doivent être terminées et une attente est implémentée pour s'assurer que les données sont renvoyées comme prévu. L'intervenant passe également en revue un exemple de programme OpenCL Hello World qui calcule le sinus de x en parallèle à l'aide d'appareils.
- 00:05:00 Dans cette section de la vidéo, l'orateur explique le processus de création d'un programme à l'aide d'OpenCL et de le soumettre à un périphérique GPU. Ils commencent par construire le programme qui prend plus de temps la première fois, mais pas les fois suivantes. Ils créent ensuite un objet noyau pour un noyau particulier dans le programme en appelant CL create kernel. Après cela, ils créent un objet mémoire, allouent un espace sur le périphérique, puis copient les données du CPU vers le GPU à l'aide de CL dans le tampon d'écriture de la file d'attente. Le locuteur définit ensuite les arguments et les dimensions du noyau et exécute le noyau en utilisant CL dans le noyau Q nd range. Enfin, le speaker récupère les résultats du GPU et attend que tout se termine en appelant CL finish. L'orateur conclut en déclarant que les noyaux compliqués peuvent ne pas donner des performances optimales à la fois sur le CPU et le GPU et peuvent devoir être corrigés pour améliorer les performances.
- 00:10:00 Dans cette section, l'orateur explique que la programmation implique souvent la répétition de certaines commandes jusqu'à l'obtention de la sortie finale souhaitée. Il le compare à la résolution d'un problème mathématique, où l'on ferait un ensemble d'opérations à plusieurs reprises jusqu'à atteindre la bonne réponse. Il note que ce processus est similaire lors de l'utilisation d'OpenCL, où les commandes de programmation sont répétées plusieurs fois jusqu'à ce que le résultat souhaité soit atteint.
- 2016.04.06
- www.youtube.com
Plus de fonctionnalités OpenCL
Plus de fonctionnalités OpenCL (9)
La vidéo traite des fonctionnalités supplémentaires d'OpenCL telles que l'interrogation des périphériques, la gestion des images et les événements. Les utilisateurs peuvent utiliser la commande cl_get_device_info pour trouver des détails sur leurs appareils, bien que ces valeurs ne soient pas toujours tout à fait précises. La prise en charge native d'OpenCL des types d'images 2D et 3D peut être lente sans prise en charge matérielle sur les processeurs, mais est accélérée par le matériel sur les GPU. Les événements sont essentiels lorsque vous travaillez avec une exécution de commande asynchrone et plusieurs appareils, servant de repères pour différents appareils qui nécessitent une synchronisation entre eux. L'orateur fournit un exemple d'utilisation d'événements pour s'assurer que le noyau B attend que le noyau A se termine avant de s'exécuter en mettant les noyaux en file d'attente avec les événements respectifs, en copiant la sortie et en attendant que les événements assurent la synchronisation.
- 00:00:00 Dans cette section, l'orateur aborde les fonctionnalités supplémentaires d'OpenCL, notamment l'interrogation des périphériques, la gestion des images et les événements OpenCL. En interrogeant les appareils à l'aide de la commande cl_get_device_info, les utilisateurs peuvent trouver des informations sur leurs appareils, telles que le nombre d'unités de calcul, la fréquence d'horloge, la taille de la mémoire globale, etc. Cependant, l'orateur prévient que ces valeurs peuvent ne pas être aussi précises que souhaité. OpenCL prend en charge les types d'images 2D et 3D de manière native, qui peuvent être interpolées linéairement, enroulées autour des bords ou bloquées sur les bords. Bien que ces fonctionnalités soient accélérées par le matériel sur les GPU, elles sont lentes sur les CPU sans support matériel. Enfin, les événements sont importants lorsque vous travaillez avec une exécution de commande asynchrone et plusieurs appareils, car les signaux de différents appareils sont asynchrones les uns par rapport aux autres, ce qui nécessite une synchronisation entre eux.
- 00:05:00 Dans cette section, l'orateur explique les événements et leur utilisation dans OpenCL. Chaque commande de mise en file d'attente a trois choses à la fin qui sont le nombre d'événements dans la liste, la liste d'attente et les événements renvoyés. Ils permettent aux utilisateurs de renvoyer un événement pour suivre et savoir si le noyau est terminé, faire attendre que le noyau se termine et même obtenir des informations de profilage. L'orateur fournit un exemple d'utilisation d'événements pour s'assurer que le noyau B sur le GPU attend que le noyau A sur le CPU se termine et copie sa sortie sur le GPU avant de s'exécuter. Cela implique de mettre le noyau en file d'attente avec un événement, de faire une copie, d'attendre cet événement et de faire attendre le second noyau sur la copie pour assurer la synchronisation.
Conseils et résumé des performances OpenCL
Conseils et résumé des performances OpenCL (10)
La vidéo présente des conseils pour optimiser les performances d'OpenCL, notamment la minimisation des transferts de données, l'optimisation de l'accès à la mémoire, l'utilisation de noyaux producteur-consommateur et l'utilisation de vecteurs et de fonctions mathématiques rapides. L'orateur souligne que les applications adaptées aux GPU doivent être parallèles aux données, intensives en calcul, éviter la synchronisation globale, confortables avec une précision unique et gérables avec de petits caches. Si vous rencontrez des performances médiocres avec OpenCL, il peut être nécessaire de reconsidérer l'algorithme et d'optimiser la localité de la mémoire, la mémoire partagée ou locale, et d'éviter une synchronisation inutile entre les éléments de travail.
- 00: 00: 00 Dans cette section, l'orateur discute de conseils pour optimiser les performances d'OpenCL, notamment en minimisant les transferts de données entre le CPU et le GPU en conservant les données sur l'appareil aussi longtemps que possible et en utilisant des chaînes de noyau producteur-consommateur. Le conférencier souligne également l'importance d'optimiser l'accès à la mémoire en optimisant la fusion de la mémoire et en gérant la mémoire locale sur les GPU. De plus, l'orateur note que l'utilisation de vecteurs peut améliorer les performances sur certains matériels, et l'utilisation de variantes rapides ou natives de certaines fonctions mathématiques peut entraîner une augmentation significative de la vitesse. Enfin, l'orateur discute des caractéristiques des applications qui correspondent bien aux GPU, notamment le fait qu'elles sont parallèles aux données, intensives en calcul, ne nécessitant pas de synchronisation globale, à l'aise avec une simple précision et gérables avec de petits caches.
- 00: 05: 00 Dans cette section, l'orateur suggère que si vous rencontrez des performances médiocres avec OpenCL, vous devrez peut-être reconsidérer votre algorithme et en choisir un qui correspond mieux au modèle de traitement parallèle. Cela peut impliquer de modifier l'ordre ou la structure de votre code pour optimiser la localisation de la mémoire, utiliser la mémoire partagée ou la mémoire locale et éviter une synchronisation inutile entre les éléments de travail.
- 2016.04.06
- www.youtube.com
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Vous acceptez la politique du site Web et les conditions d'utilisation
OpenCL est un framework open source pour écrire des programmes pouvant s'exécuter sur différents types de plateformes matérielles, telles que les processeurs CPU classiques, les processeurs graphiques (GPU) et d'autres processeurs ou accélérateurs matériels spécialisés. Cela permet aux développeurs de logiciels d'écrire du code pouvant s'exécuter sur plusieurs appareils, quel que soit leur fournisseur ou leur architecture.
L'API et le runtime OpenCL offrent une certaine indépendance de plateforme, permettant la création de code pouvant s'exécuter sur n'importe quel appareil compatible OpenCL. Il fournit également un ensemble d'API de bas niveau qui permettent aux développeurs de contrôler explicitement l'exécution des périphériques, de la mémoire et du noyau, et donc d'avoir un contrôle précis sur leurs applications.
OpenCL est largement utilisé dans le calcul scientifique, le traitement d'images et de vidéos, l'apprentissage automatique et d'autres domaines. Il utilise la puissance de calcul parallèle entre les appareils pour une exécution plus rapide et plus efficace des applications.
Parmi les avantages les plus significatifs d'OpenCL, il y a la possibilité d'utiliser la puissance de traitement des GPU qui permettent des calculs beaucoup plus rapides que les CPU. Cela le rend particulièrement utile pour les applications qui nécessitent des calculs lourds tels que la modélisation scientifique, le traitement d'images et de vidéos et l'apprentissage automatique.
OpenCL fournit un cadre flexible pour développer des applications qui peuvent exploiter la puissance de différents appareils informatiques, ce qui en fait un outil précieux pour ceux qui développent des applications informatiques à hautes performances.
MQL5 prend en charge OpenCL depuis 2012. Pour plus de détails, veuillez consulter Travailler avec OpenCL dans la documentation de MQL5. Voir aussi : Classe pour travailler avec les programmes OpenCL.
Un exemple d'utilisation d'OpenCL se trouve dans le répertoire MQL5\Scripts\Examples\OpenCL.
Voici ci-dessous un exemple OpenCL Seascape en MQL5 :
Articles liés:
OpenCL : D'une programmation naïve à une programmation plus perspicace
Comment installer et utiliser OpenCL pour les calculs
Comprendre et utiliser efficacement l'API OpenCL en recréant le support intégré en tant que DLL sur Linux (Partie 1) : Motivation et validation