Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Así que en el futuro habrá granjas de computación que se dedicarán a los usuarios y los ordenadores de sobremesa y los portátiles serán sólo los terminales para comunicarse con el mainframe.
De ahí la moraleja: Intel estará más ocupada que nunca porque incluso los procesadores que están disponibles serán cada vez más necesarios y no preveo ningún estancamiento en esta industria (imho).
El consumo de energía del elemento del circuito lógico se calcula mediante la fórmula
P = f*C*V^2
donde f es la frecuencia, C es la capacidad de carga (capacidad de entrada del siguiente elemento + capacidad de la conexión metálica), V es la tensión de alimentación. La frecuencia ha dejado de aumentar en los últimos 5-10 años, 2-3GHz. El menor tamaño de los transistores permitió reducir la capacitancia de carga (menor capacitancia del transistor de entrada y conexiones más cortas entre los transistores) y una menor tensión de alimentación. Cuando empecé en la industria, la tensión de alimentación era de 5V, luego de 3V, 1,5V, 1V y ahora de 0,5V. Cada nueva generación de tecnología de silicio conduce ahora a una reducción de la tensión de 0,1-0,2V. Cuando la ley de Moore se detiene, la potencia deja de disminuir y el número de núcleos deja de crecer.
Pocas personas saben que toda la tecnología de los circuitos integrados fue desarrollada por Intel. Todas las empresas del mundo están copiando a Intel. Inventaron FinFET hace 10 años y tardaron todos estos 10 años en implementarlo en la producción. Mis amigos de Intel me dicen que no tienen más ideas. Nuestra empresa está financiando la investigación en varias universidades, pero hasta ahora no hay nada. El mundo está al borde de unas consecuencias bastante nefastas del fin de la ley de Moore. En épocas de dificultades económicas, suelen producirse guerras mundiales, lo que provoca un aumento de las inversiones de los Estados en nuevas tecnologías y el posterior desarrollo de éstas con fines pacíficos. Así ocurrió durante la Segunda Guerra Mundial: Alan Turing inventó el ordenador para descifrar los mensajes militares alemanes. Hace 25-30 años, como consecuencia de la revolución informática, surgió la necesidad de conectar los ordenadores en red y nació Internet. En los últimos 10 años, Internet ha cambiado poco en esencia. Hoy en día, los smartphones pueden conectarse a Internet casi a la misma velocidad que un ordenador doméstico. No puedo imaginar qué nueva tecnología ocupará el lugar de los ordenadores e Internet y permitirá que continúe el crecimiento económico mundial.
¿Puede recomendar una CPU con 256 núcleos
El límite del desarrollo en 2020
¿Cómo puedes estar tan seguro de que si no ves una perspectiva, no la hay?
Admito que es posible ser un buen experto en un sector y tener una buena idea de lo que le espera en el horizonte de 2-5 años (aunque en el sector tecnológico es un horizonte demasiado lejano, en mi opinión).
Pero no se puede estar al tanto de todas las investigaciones en todos los campos relacionados, ¿verdad?
Si se alcanza un techo de gigahercios o gigabits/seg, se encontrará alguna alternativa (seguramente un orden de magnitud más potente) y el mundo seguirá evolucionando. A menos que, por supuesto, ese desarrollo sea necesario.
Es como discutir sobre la producción de energía hidroeléctrica y molestarse porque en 5 años todos los ríos se utilicen de la forma más eficiente posible, pero no ver que hay un montón de alternativas mucho más potentes, desde las bombas de calor hasta la energía nuclear.
¿Por qué la melancolía? )
NVidia más reciente > 2000 núcleos
No encuentro ningún procesador de ellos, sólo tarjetas
La tarjeta es el procesador. Se escribe el código en Visual Studio 10 en lenguaje CUDA C, se compila en la GPU y se ejecuta. Escribir código para la GPU es mucho más difícil que para la CPU. Hay que añadir comandos para la asignación de memoria en la GPU (normalmente no hay mucha), la transferencia de datos de la CPU a la memoria de la GPU, comandos especiales de paralelización, la reescritura de los datos de vuelta, la liberación de memoria, etc. Un montón de sutilezas diferentes, pero consigues usar 3000 núcleos. Ver aquí
https://developer.nvidia.com/how-to-cuda-c-cpp
La tarjeta es el procesador. Se escribe el código en Visual Studio 10 en lenguaje CUDA C, se compila en la GPU y se ejecuta. Escribir código para la GPU es mucho más difícil que para la CPU. Hay que añadir comandos para la asignación de memoria en la GPU (normalmente no hay mucha), la transferencia de datos de la CPU a la memoria de la GPU, comandos especiales de paralelización, la reescritura de los datos de vuelta, la liberación de memoria, etc. Un montón de sutilezas diferentes, pero consigues usar 3000 núcleos. Ver aquí
https://developer.nvidia.com/how-to-cuda-c-cpp
¿Cómo puedes estar tan seguro de que si no puedes ver la perspectiva, no la hay?
Admito que se puede ser un buen experto en un sector y tener una buena idea de lo que le espera en el horizonte de 2-5 años (aunque en el sector tecnológico eso está demasiado lejos, en mi opinión).
Pero no se puede estar al tanto de todas las investigaciones en todos los campos relacionados, ¿verdad?
Si se alcanza un techo de gigahercios o gigabits/seg, se encontrará alguna alternativa (seguramente un orden de magnitud más potente) y el mundo seguirá evolucionando. A menos que, por supuesto, ese desarrollo sea necesario.
Es como discutir sobre la producción de energía hidroeléctrica y molestarse porque en 5 años todos los ríos se utilicen de la forma más eficiente posible, pero no ver que hay un montón de alternativas mucho más potentes, desde las bombas de calor hasta la energía nuclear.
¿Por qué la melancolía? )
No hay melancolía, hay temor por el futuro, tanto el mío como el de los demás. Ciertamente, es muy fácil vivir cuando se confía en que los científicos encontrarán una solución a un problema, una nueva tecnología, una cura para el cáncer o una solución al calentamiento global. El final de la ley de Moore es bastante relevante. Lea los artículos recientes sobre el tema. Mi opinión puede ser pesimista, pero se basa en un profundo conocimiento de la tecnología de los semiconductores y de las últimas investigaciones en este campo en virtud de mi especialidad. Se necesitan unos 10 años para llevar una nueva tecnología a la producción en masa, y hasta ahora no ha aparecido ninguna en los laboratorios de las empresas o universidades. Así que espero un estancamiento de 5 a 10 años, o incluso más, en la tecnología informática. Existe una organización mundial, ITRS (International Technology Roadmap for Semiconductors), formada por empleados de las principales empresas de semiconductores, que publica la hoja de ruta de los semiconductores para el futuro próximo (su visión de hacia dónde va la tecnología). Llevan publicando esta hoja de ruta desde 1965, cada dos años. El último fue el informe de 2014. El próximo informe debería publicarse este verano. Todo el mundo en este campo esperaba este informe, pero nunca salió a la luz y la organización pasó a llamarse Hoja de Ruta Internacional de Dispositivos y Sistemas (IRDS) y se subordinó al IEEE. Esta nueva organización publicará una hoja de ruta de los sistemas informáticos y de comunicación, software, etc. Lo que se incluirá en este informe es bastante impreciso.
http://www.eetimes.com/document.asp?doc_id=1329604
He preguntado por el procesador, no por la tarjeta de expansión que tienen diferentes ranuras de montaje.
GPU = unidad de procesamiento gráfico (producida principalmente por Nvidia)
CPU = unidad central de procesamiento (fabricada por Intel o AMD)
Ambos son procesadores. ¿No lo entiendes? Llama a la GPU tarjeta o lo que quieras pero es un procesador con 3000 núcleos si tienes el último modelo. Si tienes un ordenador también es una GPU, lee en la documentación qué modelo tienes y cuántos núcleos tiene.