Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Moore sólo está haciendo publicidad de su obra y no entiende nada del progreso de la ciencia, debe ser.
La aviación de pistón murió de forma similar: ha alcanzado su techo, un motor de este tipo tiene una potencia constante. Un motor a reacción con empuje constante es otra cosa.
Pues lo mismo ocurre con los procesadores, supongo. Creo que la respuesta está en los nuevos materiales. La caída de tensión en un diodo de germanio es menor que en un diodo de silicio (en ese sentido, no pretendo sustituir el krmio por el germanio).
Y, de todos modos, ¿en qué gasta la"economía mundial" actual su mayor capacidad de hardware? ¿En el lanzamiento de una nueva versión de Windows? )) (win10 come más que xp).
Bueno, es un lugar común. Hay muchos ejemplos en el mundo, el motor de combustión interna, por ejemplo: no se puede aumentar constantemente la relación de compresión para aumentar la eficiencia (cuanto más se aumenta, menos eficiente es) y hacer que tenga más velocidad. Y aquí se han estancado, y es poco probable que se produzcan avances serios. Y antes, se podía derivar alguna ley del compañero, según la cual la eficiencia del motor aumentaba rápidamente.
La aviación de pistón murió de forma similar: ha alcanzado su techo, un motor de este tipo tiene una potencia constante. Un motor a reacción con empuje constante es otra cosa.
Pues lo mismo ocurre con los procesadores, supongo. Creo que la respuesta está en los nuevos materiales. La caída de tensión en un diodo de germanio es menor que en un diodo de silicio (en ese sentido, no pretendo sustituir el krmio por el germanio).
Y, de todos modos, ¿en qué gasta la"economía mundial" actual su mayor capacidad de hardware? ¿En el lanzamiento de una nueva versión de Windows? )) (win10 come más que xp.)
... y la nueva tecnología no ha aparecido, ni siquiera en el horizonte.
¿Para qué sirve esta nueva tecnología?
¿Es para las relaciones públicas, para animar a los exaltados a sustituir el ordenador?
Más arriba sugerí comparar el BESM-4 con los ordenadores modernos en cuanto al número de operaciones en coma flotante. Nadie puede. Aunque el punto flotante es una mejor medida del progreso en las tareas computacionales.
Desde mi punto de vista, como usuario con conocimientos muy limitados de técnicas de programación, no necesito gigahercios en absoluto. Necesito estar seguro de que, sin hacer esfuerzos individuales especiales, obtendré un código lo más eficiente posible en una fase de desarrollo determinada. Y está claro que el gigahercio no es el primer lugar aquí.
Pondré la siguiente circunstancia en primer lugar. Si el algoritmo de mi aplicación implica algún algoritmo computacionalmente complejo, por ejemplo, la optimización o las operaciones con matrices, entonces utilizaré AUTOMÁTICAMENTE el código más eficiente posible, tanto en términos de técnica de escritura como de uso de hardware, por ejemplo, utilizando muchos hilos. Y si en los últimos 15 años los gigahercios han aumentado dentro del 100%, con mi enfoque automático, por ejemplo, utilizando la biblioteca MKL para las matrices, conduce a un aumento del rendimiento en órdenes de magnitud.
La moraleja de mis palabras: el rendimiento del PC no puede medirse por gigahercios, el rendimiento debe medirse por la velocidad de ejecución de las tareas de las aplicaciones.
La primera GPU con un número significativo de núcleos apareció en 2007 (Nvidia, 128 núcleos). En la actualidad, el número de núcleos ha alcanzado los 3.000. ¿Experimentó un aumento de velocidad de su ordenador de 128 veces en 2007 frente a 2006? ¿Qué le parece la aceleración de 3000 veces hoy en día en comparación con 2006? No hay ninguno. Los núcleos siguen utilizándose en los gráficos, donde el paralelismo es fácil. En 2009-2010 yo mismo intenté programar algo en una GPU con 256 núcleos. Inmediatamente descubrí por qué la mayoría de los programas no utilizan el multinúcleo: es muy difícil, el desarrollador tiene que decidir manualmente qué partes del programa pueden ir en paralelo. Bueno, finalmente terminé el nuevo código y fue 3 veces más rápido con 256 núcleos. Pero incluso me ha gustado la aceleración de 3 veces. Pero cuando tuve que crear el siguiente código recordé mi agonía y dejé de paralelizar. Por supuesto, los problemas separados, como los gráficos y el manejo de bases de datos, seguirán utilizando el multinúcleo, pero otros programas sólo se verán favorecidos por un nuevo compilador que encuentre automáticamente los lugares del programa que se pueden paralelizar, pero no existe tal compilador, que yo sepa.
No niego el potencial de mejorar el software y hacer que los ordenadores sean más rápidos sobre esa base. Sostengo que la compra de nuevos ordenadores y smartphones caerá en 2021-2022 debido al estancamiento de las mejoras de hardware. ¿Comprarías un ordenador nuevo si tuviera los mismos núcleos, memoria y frecuencia que tu antiguo ordenador? Probablemente no, comprará un nuevo software. Todos los fabricantes de hardware y las industrias relacionadas entrarán en recesión, con un desempleo masivo.
Leí en alguna parte que un instituto estadounidense creó un procesador con 1000 núcleos, pero sin interacción con la memoria.
El número de núcleos también dejará de crecer, ya que ejecutar varios núcleos en paralelo consume más energía que un solo núcleo. La disminución del tamaño de los transistores no sólo supuso un aumento del número de núcleos, sino también una disminución de la potencia de los transistores, lo que finalmente permitió mantener la potencia total aproximadamente al mismo nivel.
Vladimir, recordemos el viejo principio de ESka(ES_computers).
Ahora vemos lo mismo (en principio) terminales de mano y conexión a un servicio en la nube con capacidades informáticas esencialmente ilimitadas.
Así que en el futuro habrá granjas de computación que alquilarán recursos a los usuarios y los ordenadores de sobremesa y portátiles serán sólo terminales que se comunicarán con el mainframe.
Conclusión: Intel va a estar más ocupada hasta las trancas ya que incluso los procesadores que están disponibles van a ser cada vez más necesarios y no preveo ningún estancamiento en esta industria (imho).
Vladimir, recordemos el viejo principio de la ECU(EC_computer).
Ahora vemos lo mismo (en principio) terminales de mano y conexión a un servicio en la nube con capacidades informáticas esencialmente ilimitadas.
Así que en el futuro habrá granjas de computación que subcontratarán recursos a los usuarios, mientras que los ordenadores de sobremesa y los portátiles sólo serán terminales que se comunicarán con el mainframe.
En consecuencia, Intel se ocupará al máximo, ya que incluso los procesadores existentes serán cada vez más necesarios y no preveo ningún estancamiento en esta industria (imho).
Y este era el sistema operativo de la UE.
Un sistema de máquinas virtuales