Recessione globale per la fine della legge di Moore - pagina 10

 
Vladimir:
Usare la luce per trasmettere informazioni non è nuovo, è usato nei cavi. Usarlo in un chip è abbastanza nuovo, ma troppo scomodo perché bisogna modulare l'informazione digitale alla luce, aggiungere fotodiodi e LED, e la fibra stessa è molto più spessa di una connessione metallica. Non ci sono vantaggi particolari. I transistor fotonici e la memoria non esistono ancora, per quanto ne so. Anche se ci sono idee di usare i fotoni come qubit in un computer quantistico.
Anche questo non è nuovo, l'optronica del secolo scorso. Negli anni '80 erano usati come interruttori, micro assemblaggi. I diodi sono strutturalmente più semplici dei transistor, per strato. Devi solo investire di più nello sviluppo. Anche se non vedi il futuro.
 
Vladimir:

...

Quindi, a partire dal 2021-2022 circa, i computer e i telefoni cellulari smetteranno di aumentare le prestazioni dei loro processori. Non avrà senso per la gente comprare un nuovo computer, iPad o selfie se il loro processore ha la stessa potenza della vecchia generazione di questi dispositivi. La vendita di nuovi dispositivi calerà. Poiché questi dispositivi colpiscono molte industrie, gli esperti prevedono una recessione mondiale. È probabile che il mercato inizi a reagire alla fine della legge di Moore prima del 2020.

Non riesci a vedere la foresta per gli alberi. Le CPU sono ora abbastanza potenti da gestire tutti i compiti quotidiani. Anche ora, l'aumento delle prestazioni della CPU non è richiesto dagli utenti. Preferiscono smartphone e tablet meno potenti a computer desktop ingombranti ma potenti.
 
Vladimir:

È più facile scrivere un programma per core CPU paralleli che per GPU? Il problema è lo stesso: il programmatore deve scervellarsi e decidere quali pezzi di un programma possono essere parallelizzati, scrivere codice speciale di parallelizzazione e così via. La maggior parte dei programmatori non soffre e scrive programmi single-core senza colpi di scena. Qual è il problema qui: mancanza di core o programmi che usano il multi-core? Penso che sia la seconda. Anche se vi do una CPU con 3000 core continuerete a scrivere programmi single core poiché non c'è differenza nella difficoltà di scrivere programmi per 3000 core e per 4 core. Quello che serve è un nuovo compilatore che possa rilevare automaticamente i pezzi di codice che possono essere messi in parallelo. Ma ancora una volta il progresso nella creazione di un tale compilatore non dipende dall'hardware ma dalla volontà dei programmatori di scrivere un tale compilatore. In tutto questo thread sto affermando che la possibilità di creare nuovo hardware dopo il 2020 sta diminuendo a causa dei progressi nella tecnologia dei semiconduttori e la riduzione delle dimensioni e del consumo di energia dei transistor. Nuovi materiali e transistor sono ancora all'orizzonte. Intel ha cercato di creare la generazione di processori Knight Hill su tecnologia 10nm nel 2016 e ha rimandato tale generazione fino alla fine del 2017. Anche Samsung ha problemi con la sua tecnologia a 10nm per i suoi processori di app. Già a 10nm, i transistor danno solo una piccola riduzione di dimensioni e potenza rispetto ai 14nm. La dissipazione del calore diventa un grosso problema. È necessario un salto di tecnologia. Uno degli indicatori della tecnologia è il prezzo per transistor. Quindi, quel prezzo stava scendendo prima dei 28nm, e dopo ha iniziato a salire esponenzialmente. Molte aziende si sono fermate a 28nm a causa del prezzo. Quindi il progresso verso la tecnologia a 10nm e poi 7nm e l'ultimo 5nm sarà accompagnato non solo da problemi di calore ma anche da un prezzo elevato.

Ci sono alcuni compiti che sono fondamentalmente impossibili da parallelizzare. Il parallelismo non è una panacea.
 
Per qualche motivo nessuno ha menzionato i problemi NP-completi. Ebbene, ci sono molti di questi problemi, e per nessuno di essi esiste un modo efficace di risolverli. Qualsiasi aumento di 10x, 100x, 1000x delle prestazioni del computer è inutile per trovare effettivamente soluzioni a questi problemi. Questo è uno dei problemi fondamentali della matematica, ma non dell'ingegneria dei cristalli di silicio. Da questo punto di vista, l'argomento proposto sembra del tutto insensato e il problema risucchiato dal nulla.
 
Vasiliy Sokolov:
In qualche modo nessuno ha menzionato i problemi NP-completi.
Patamusta
Алгоритм Гровера — Википедия
  • ru.wikipedia.org
Алгоритм Гровера (англ.  , GSA) — квантовый алгоритм решения задачи перебора, то есть нахождения решения уравнения Предполагается, что функция задана в виде чёрного ящика, или оракула, то есть в ходе решения мы можем только задавать оракулу вопрос типа: «чему равна на данном », и после получения ответа использовать его в дальнейших вычислениях...
 
Vasiliy Sokolov:
Per qualche motivo nessuno ha menzionato i problemi NP-completi. Bene, ci sono molti di questi problemi, e per nessuno di essi esiste un modo efficace di risolverli. Qualsiasi aumento di 10x, 100x, 1000x delle prestazioni del computer è inutile per trovare effettivamente soluzioni a questi problemi. Questo è uno dei problemi fondamentali della matematica, ma non dell'ingegneria dei cristalli di silicio. Da questo punto di vista, l'argomento proposto in generale sembra senza senso e il problema risucchiato dal nulla.
Man mano che la potenza di calcolo cresce, la complessità dei problemi viene annullata in quanto diventa possibile utilizzare IA in grado di autocomplicarsi il più possibile. Così tutti i problemi che hanno soluzioni saranno risolti non aumentando la potenza di calcolo, ma aumentando le capacità del risolutore (AI). Questa è una sorta di transizione qualitativa dal tangibile all'informazionale (intangibile). I computer quantistici saranno uno sviluppo senza via d'uscita (apparentemente) di questo stesso materiale, verso una nuova transizione qualitativa verso l'emergenza di un Risolutore autocomplicante.
 
Vasiliy Sokolov:
In qualche modo nessuno ha menzionato i compiti NP-completi. Beh, ci sono molti di questi problemi, e per nessuno di essi esiste un modo efficiente per risolverli. Qualsiasi aumento di 10x, 100x, 1000x delle prestazioni del computer è inutile per trovare effettivamente soluzioni a questi problemi. Questo è uno dei problemi fondamentali della matematica, ma non dell'ingegneria dei cristalli di silicio. Da questo punto di vista, l'argomento proposto sembra del tutto insensato e il problema risucchiato dal nulla.

Non hai bisogno di prestazioni di sudoku.

Cosa succede effettivamente se la produttività di un'istanza di ferro non aumenta? E qual è la quota dei dispositivi nel PIL globale? Probabilmente meno di, diciamo, prodotti farmaceutici o software per lo stesso ferro. Presto i dispositivi saranno dati gratuitamente in allegato a qualche aggeggio super popolare. Danno smartphone di marca per un prezzo simbolico.

E la produzione in Cina non dovrebbe scendere. Se non puoi catturare i Pokémon con uno smartphone, catturali con due.

 
Yuri Evseenkov:

...

Presto i dispositivi saranno dati via gratis come add-on a qualche cosa di super popolare.

...

Più

Non hai bisogno di un super computer per catturare pokemon e guardare Kate.

 
Vasiliy Sokolov:

Vedo una rondine che cattura le mosche fuori dalla mia finestra.

Cercare l'obiettivo, catturare l'obiettivo, catturare l'obiettivo, mangiarlo - tutto in un volo molto caotico. Abbiamo una macchina volante piena di gigahertz e gigabyte per volare così?

Ed è tutto fatto da un computer grande come la punta del tuo mignolo.

Ma oltre a controllare il volo, lo stesso computer della rondine controlla tutti i suoi processi interni, mantenendo tutta la loro inconoscibile totalità in un certo stato di equilibrio!

Ho preso un dispositivo di calcolo chiamato "aritmometro": si gira una manopola e appaiono dei numeri. Questo era 50 anni fa. Dopo tutto, non è successo nulla di qualitativo nel mondo dell'informatica da allora, solo quantitativamente: la manopola gira più velocemente.

Eppure il futuro dell'informatica è proprio sopra il nostro naso.

 
СанСаныч Фоменко:

Vedo una rondine che cattura le mosche fuori dalla mia finestra.

Cercare l'obiettivo, catturare l'obiettivo, catturare l'obiettivo, mangiarlo - tutto in un volo molto caotico. Abbiamo una macchina volante piena di gigahertz e gigabyte per volare così?

Ed è tutto fatto da un computer grande come la punta del tuo mignolo.

Ma oltre a controllare il volo, lo stesso computer della rondine controlla tutti i suoi processi interni, mantenendo tutta la loro inconoscibile totalità in un certo stato di equilibrio!

Ho preso un dispositivo di calcolo chiamato "aritmometro": si gira una manopola e appaiono dei numeri. Questo era 50 anni fa. Dopotutto, non è successo nulla di qualitativo nel mondo dell'informatica da allora, solo quantitativamente: la manopola gira più velocemente.

Eppure il futuro dell'informatica è proprio sopra il nostro naso.

L'euforia sugli algoritmi neurali era finita negli anni '80. Molte speranze erano riposte in loro. Molti compiti con il loro aiuto sono stati risolti con successo. Ma nel complesso, l'idea è fallita, l'intelligenza artificiale non è mai stata creata.