Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 601

 
Vladimir Perervenko :

Bu, Habr'a bir bağlantıdır. https://keras.rstudio.com/index.html kütüphanesine bağlantı.

Orijinalleri okuyun.

İyi şanlar

Evet, görüyorum - Keras, hızlı deneyler yapmaya odaklanarak geliştirilmiş üst düzey bir sinir ağları API'sidir. R? beklendiği gibi, arayüz.

Teşekkür ederim.

Birincil kaynaklar aslında burada - https://keras.io/ ve GitHub'da - https://github.com/keras-team/keras

Keras Documentation
Keras Documentation
  • keras.io
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Use Keras if you need a deep learning library that: Allows...
 
Sihirbaz_ :

2016'nın ilk yarısında dünya, sinir ağları alanında birçok gelişme duydu - algoritmaları gösterildi
Google (AlphaGo'da bir ağ oynatıcısı), Microsoft (görüntü tanımlama için bir dizi hizmet), yeni başlayanlar MSQRD, Prisma ve diğerleri...
Birkaç kişi biliyor, ancak diğerleri paralel olarak yürütüldü. Gezegenin en iyi zihinleri benzersiz bir sistem yaratmak için birleştiler.
ki zaten AI olarak adlandırılabilir. Nihai ürün "Tanrı'dan programcılar" tarafından uygulanır, herhangi bir miktarda veriyle kolayca çalışır,
herhangi bir bezde ve hatta bir kutudaki broşürlerde. Kısacası - Mishan, yakala! Ama sadece şşş, sessiz ol...)))


Hadi ama, umarım bu kötü niyetli bir virüs değildir... Hiç belli olmaz, bir anda içine bir kaka koyarsın. Bir zamanlar Klot lakaplı bir kullanıcı tanıyordum. bu yüzden kendi kendine "Şeytan kel bir adamı programlayabilir" dedi ve programlamada gerçekten iyiydi ....

2003'ten kalma damalı yapraklarım olduğu için bakamadım bile ... Kader değil gibi görünüyor :-(

 

bu da "her zaman yanınızda olan uzay" serisinden

 
Michael Marchukajtes :

Bakamadım bile, çünkü 2003'ten kalma damalı yapraklarım var ...

Sallanma zamanı.

exelka 03 hardcore.

 
Michael Marchukajtes :

Hadi ama, umarım bu kötü niyetli bir virüs değildir... Hiç belli olmaz, bir anda içine bir kaka koyarsın. Bir zamanlar Klot lakaplı bir kullanıcı tanıyordum. bu yüzden kendi kendine "Şeytan kel bir adamı programlayabilir" dedi ve programlamada gerçekten iyiydi ....

2003'ten kalma damalı yapraklarım olduğu için bakamadım bile ... Kader değil gibi görünüyor :-(


google sayfaları, değil mi?

ama bir tür kendi kendine yapılan algısal çöp var :)

 
toksik :

Bazen Yura Reshetov'un ölümü için suçlanacak olanın sen olduğuna dair şüphelerim var, yüksek sesle düşündüğüm için beni bağışla, kendimi tutamadım.


Chur me chur .... Tabii ki, ona geliştirme seçenekleri verdim, ama sanırım fikirlerimin en fazla %10'u onun tarafından onaylandı ve sonra muhtemelen abarttım. Gerçek şu ki, MO'da iki uzman alanı var - geliştiriciler (programcılar) ve mühendisler (kullanıcılar). Bilin bakalım ben hangi kategorideyim????

 

Bu yüzden Java konusunda eğitim almayı ve devam etmeyi düşünüyorum. Dilin özelliklerinde bir takım kilit noktaları anlamadığımı hissediyorum , yıl boyunca maila.ru üniversitesinde 150 bin öğrenmem teklif edildi ..... Böyle şeyler. Ve son aşamalardan birinde durdu - tahmincilerin seçimi. Önemlerinin hesaplanması ve bir çeşit seçim. Çünkü kodda iki parça taş var. Ancak, öğrenme sürecinin kendisi, ortaya çıkan modelin analizi ve seçimi (bir mühendisin değerli olduğu şey budur) alanında bir uzmana güvenin. Aşağıdaki değerlendirmeyi yapabilirim.

1.JPRediction genelleme yapma yeteneğine sahiptir. İstediğimizle aynı değil, ancak alınan 10 modelden %50-80'i genelleştirilmiş modeller olacak, geri kalanı boşaltılacak. Farklı şekilde genelleştirilecekler ve iyi öğrenme çıktıları olan bir model, gelecekte zayıf öğrenme çıktıları olan bir modelden daha az puan alabilir.

2. Öngörücü seçme sorunu öyle ki ben ona 100 tane besliyorum ve o maksimum 9'lu bir model kuruyor ve 3 gün boyunca 3 çekirdekte yapıyor. Mantıksal olarak, model ne kadar fazla girdi, o kadar parametrik ve faktörleri ve türleri daha akıllıca hesaba katar, ancak pratikte model ne kadar basit olursa, gelecekte aynı öğrenme çıktısına sahip bir modelden daha iyi çalışır, ancak çok sayıda girdi ile. Ben 5 ve üzeri girdilerden modeller düşünüyorum, çünkü daha az girdi ile, modeller sadece şanslı olduğunda, bir süre için ve sonra değil ve bir kural olarak, model çok küçük olduğu için bu süre uzun değil.

Verilerle hiçbir şey denemedim ve hatta JPrediction'a aynı verileri aldığımda şiddetle yeniden eğitmeyi öğrettim, onları yeniden eğittim ve eğitim sonucu %20'de çarpıcı bir şekilde artıyor. Yani, %75 oldu ve %90 oldu ve aynı zamanda çevrenin korunmasında korkunç bir düşüş oldu.

Şimdi MO için servisler görünmeye başlıyor, ben AWS kullanıyorum. Makine öğrenimi ve model oluşturma ile ilgili bir bölüm var. Sonuç olarak, aynı dosyadan orada ve evde bir model oluşturuyorum. AWS'de, eğitilen modelin kalitesi çok daha kötüdür, ancak onu oluşturmak da 5 dakika sürer. Evet, yeterli ayar yok.

Gerçekten iki özdeş dosyayı farklı AI sistemlerinde çalıştırmak ve sonucu takas edilen bir OOS sitesi biçiminde karşılaştırmak istiyorum, ancak ne yazık ki bu forumda eksiksiz AI sistemlerine sahip uzman yok. Burada hala arıyorlar.... ne yazık ki.... Sihirbaz!!!! buldun mu???? senin AI'n......

 

Kitabı okuyanlar/inceleyenler

google colab'ın GPU desteği var

ve önceden yüklenmiş TensorFlow

Tek sorun, dosyalarla api ve google drive üzerinden çalışmak


Ekran kartı performans testi:

32x7x7x3 filtreyi rastgele 100x100x100x3 görüntüler (toplu x yükseklik x genişlik x kanal) üzerinde sarmak için zaman (sn). On koşunun toplamı. CPU(lar): 9.7673768972 GPU(lar): 0.161982059479 CPU üzerinden GPU hızlandırma: 60x

Hepsinin nasıl uygulandığı hakkında hiçbir fikrim yok, ama işe yarıyor :)

ve burada R elbette keskin bir şekilde yükselir ..l hemen

 
Maksim Dmitrievski :

Kitabı okuyanlar/inceleyenler

google colab'ın GPU'nuz için desteği var

ve önceden yüklenmiş TensorFlow

kısacası, hiçbir şeyin yüklenmesine gerek yok, sadece tarayıcıdan geçin ve çalışın. Tek sorun, dosyalarla api ve google drive üzerinden çalışmak


Ekran kartımın performans testi:

32x7x7x3 filtreyi rastgele 100x100x100x3 görüntüler (toplu x yükseklik x genişlik x kanal) üzerinde sarmak için zaman (sn). On koşunun toplamı. CPU(lar): 9.7673768972 GPU(lar): 0.161982059479 CPU üzerinden GPU hızlandırma: 60x

Hepsinin nasıl uygulandığı hakkında hiçbir fikrim yok, ama işe yarıyor :)


Ama bu zaten kullanışlı. Bu nasıl bir laboratuvar?

 
Michael Marchukajtes :

Ama bu zaten kullanışlı. Bu nasıl bir laboratuvar?


Pekala, sen nesin, Michael

sanal bir makine olmasına ve onların kullanılmasına rağmen)