Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Assim, no futuro haverá a construção de fazendas de computação que serão dedicadas a usuários e desktops e os portáteis serão apenas os terminais para comunicação com o mainframe.
Daí a moral: a Intel estará mais ocupada do que nunca porque mesmo os processadores que estão disponíveis serão cada vez mais necessários e não prevejo nenhuma estagnação nesta indústria (imho).
O consumo de energia do elemento lógico do circuito é calculado usando a fórmula:
P = f*C*V^2
onde f é a freqüência, C é a capacidade de carga (capacidade de entrada do próximo elemento + capacitância da conexão metálica), V é a tensão de alimentação. A freqüência parou de aumentar nos últimos 5-10 anos, 2-3GHz. O tamanho menor do transistor levou a uma menor capacidade de carga (menor capacidade de transistor de entrada e conexões mais curtas entre transistores) e menor tensão de alimentação. Quando comecei na indústria a tensão de alimentação era de 5V, depois 3V, 1,5V, 1V e agora 0,5V. Cada nova geração de tecnologia de silício agora leva a uma redução de tensão de 0,1-0,2V. Quando a lei de Moore pára, a energia deixa de diminuir e o número de núcleos deixa de crescer.
Poucas pessoas estão cientes do fato de que toda a tecnologia de circuitos integrados foi desenvolvida pela Intel. Todas as empresas do mundo estão copiando a Intel. Eles inventaram o FinFET há 10 anos e levaram todos esses 10 anos para implementá-lo na produção. Meus amigos da Intel me dizem que não têm mais nenhuma idéia. Nossa empresa está financiando pesquisas em várias universidades, mas até agora não houve resposta. O mundo está à beira de algumas conseqüências bastante terríveis do fim da lei de Moore. Em tempos econômicos difíceis, as guerras mundiais geralmente ocorrem, levando a uma onda de investimentos dos Estados em novas tecnologias e o subseqüente desenvolvimento dessas tecnologias para fins pacíficos. Este foi o caso durante a Segunda Guerra Mundial - Alan Turing inventou o computador para decodificar as mensagens militares alemãs. Há 25-30 anos, como conseqüência da revolução informática, havia a necessidade de computadores em rede e nasceu a internet. Nos últimos 10 anos, a Internet mudou muito pouco. Hoje os smartphones podem se conectar à Internet quase na mesma velocidade que um computador doméstico. Não consigo imaginar que nova tecnologia tomará o lugar dos computadores e da Internet e permitirá que o crescimento econômico mundial continue.
Você pode recomendar uma CPU com 256 núcleos
O limite do desenvolvimento em 2020
Como você pode ter tanta certeza de que se você não pode ver uma perspectiva, não há uma?
Admito que é possível ser um bom especialista em um setor e ter uma boa idéia do que o espera no horizonte de 2-5 anos (embora no setor de tecnologia este seja um horizonte muito distante, imho).
Mas não se pode estar ciente de todas as pesquisas em todos os campos relacionados, não é verdade?
Se um teto de gigahertz ou gigabits/seg for atingido, então alguma alternativa (certamente uma ordem de magnitude mais poderosa) será encontrada e o mundo continuará a evoluir. A menos, é claro, que esse desenvolvimento seja necessário.
É como discutir sobre a produção de energia hidrelétrica e ficar chateado que em 5 anos todos os rios serão usados da maneira mais eficiente possível, mas não ver que existem muitas alternativas muito mais poderosas, desde bombas de calor até energia nuclear.
Por que a melancolia? )
NVidia mais recente > 2000 núcleos
Não consigo encontrar nenhum processador deles, apenas cartões
O cartão é o processador. Você escreve o código no Visual Studio 10 em linguagem CUDA C, compila-o na GPU e o executa. Escrever código para a GPU é muito mais difícil do que para a CPU. Você precisa adicionar comandos para alocação de memória na GPU (geralmente não há muito dela), transferir dados da CPU para a memória da GPU, comandos paralelos especiais, depois reescrever os dados de volta, liberar a memória, etc. Muitas sutilezas diferentes, mas você pode usar 3000 núcleos. Veja aqui
https://developer.nvidia.com/how-to-cuda-c-cpp
O cartão é o processador. Você escreve o código no Visual Studio 10 em linguagem CUDA C, compila-o na GPU e o executa. Escrever código para a GPU é muito mais difícil do que para a CPU. Você precisa adicionar comandos para alocação de memória na GPU (geralmente não há muito dela), transferir dados da CPU para a memória da GPU, comandos paralelos especiais, depois reescrever os dados de volta, liberação de memória, etc. Muitas sutilezas diferentes, mas você pode usar 3000 núcleos. Veja aqui
https://developer.nvidia.com/how-to-cuda-c-cpp
Como você pode ter tanta certeza de que se você não consegue ver a perspectiva, não há uma?
Admito que você pode ser um bom especialista em um setor e ter uma boa idéia do que está reservado para ele no horizonte de 2-5 anos (embora no setor de tecnologia que está muito longe de um horizonte, imho).
Mas não se pode estar ciente de todas as pesquisas em todos os campos relacionados, não é verdade?
Se um teto de gigahertz ou gigabits/seg for atingido, então alguma alternativa (certamente uma ordem de magnitude mais poderosa) será encontrada e o mundo continuará a evoluir. A menos, é claro, que esse desenvolvimento seja necessário.
É como discutir sobre a produção de energia hidrelétrica e ficar chateado que em 5 anos todos os rios serão usados da maneira mais eficiente possível, mas não ver que existem muitas alternativas muito mais poderosas, desde bombas de calor até energia nuclear.
Por que a melancolia? )
Não há melancolia, há medo para o futuro, tanto o meu como o dos outros. É certamente tão fácil viver quando se confia nos cientistas que eles encontrarão uma solução para um problema, uma nova tecnologia, uma cura para o câncer ou uma solução para o aquecimento global. O fim da lei de Moore é bastante relevante. Leia artigos recentes sobre o assunto. Minha opinião pode ser pessimista, mas é baseada em um profundo conhecimento da tecnologia de semicondutores e nas últimas pesquisas na área, em virtude da minha especialidade. Leva cerca de 10 anos para trazer uma nova tecnologia para a produção em massa, e até agora nenhuma tecnologia desse tipo apareceu nos laboratórios de empresas ou universidades. Portanto, espero 5-10 anos de estagnação, talvez até mais, na tecnologia da computação. Existe uma organização mundial ITRS (International Technology Roadmap for Semiconductors) que consiste em funcionários de grandes empresas de semicondutores e publica o roadmap de semicondutores para o futuro próximo (sua visão de para onde a tecnologia está indo). Eles publicam este roteiro desde 1965, a cada dois anos. O último foi o relatório de 2014. O próximo relatório deverá ser publicado neste verão. Todos no campo estavam ansiosos por este relatório, mas ele nunca saiu e a organização foi renomeada como o Roteiro Internacional de Dispositivos e Sistemas (IRDS) e subordinada ao IEEE. Esta nova organização publicará um roteiro de sistemas de computador e comunicação, software, etc. O que será incluído neste relatório é bastante vago.
http://www.eetimes.com/document.asp?doc_id=1329604
Eu perguntei sobre o processador, não sobre a placa de expansão que eles têm slots de montagem diferentes.
GPU = unidade de processamento gráfico (produzida principalmente pela Nvidia)
CPU = unidade central de processamento (fabricada pela Intel ou AMD)
Ambos são processadores. Você não entendeu? Chame a GPU de uma placa ou o que você quiser, mas é um processador com 3000 núcleos se você tiver o modelo mais recente. Se você tem um computador, é também uma GPU, leia a documentação que modelo você tem e quantos núcleos ele tem.