Cómo serán los ordenadores cuando se llegue al límite de miniaturización
Se habla mucho del desastre: desastre económico, natural, social, energético… pero no suelo leer a nadie que hable de lo que va a pasar con la cultura, con la inteligencia de la civilización actual . De hecho, suelo ver todo lo contrario: artículos que intentan imaginar un futuro de reducción y organización social con huertas, animales, portátiles y redes telemáticas comunitarias para no perder las buenas costumbres de la era BAU. Entonces, leí cómo planean crear redes en ecoaldeas y cosas así. En un próximo artículo hablaré sobre el proyecto RetroShare que se basa en la idea de F2F (peer to peer) descentralizado e internet no censurable, dentro de una red WAN o LAN, sin tener que estar conectado a todo el mundo. y que, en teoría, consume menos energía que un internet cliente-servidor normal. Porque probablemente, después de leer este artículo, te plantees un futuro sin internet ni ordenadores.
Siento dar la mala noticia: toda la informática, incluida toda la información que almacena, será una de las primeras empresas en colapsar en una posible crisis o guerra, y explicaré por qué.
COMPUTACIÓN CLÁSICA
Hoy en día, las computadoras realizan diversas actividades que requieren mucho tiempo de procesamiento y ejecución. Debido a la búsqueda de reducir el tiempo para realizar estas actividades, los investigadores desarrollaron máquinas más grandes y más rápidas. Sin embargo, habrá un momento en que las limitaciones físicas impedirán la creación de dispositivos más rápidos. En este contexto, las leyes de la física limitan la miniaturización de los circuitos. De esta forma, en el futuro, los transistores serán tan pequeños que los componentes de silicio tendrán un tamaño casi molecular. A distancias microscópicas, las leyes de la mecánica cuántica hacen efecto, haciendo que los electrones salten de un punto a otro sin cruzar el espacio entre ellos, causando muchos problemas.
Los ordenadores actuales se basan en la arquitectura de Von Neumann. Fue un matemático húngaro de origen judío, pero naturalizado estadounidense. Von Neumann contribuyó al desarrollo de la teoría combinatoria, el análisis funcional, la teoría del ethereum, la mecánica cuántica, la informática, la economía, la teoría de juegos, el análisis numérico, la hidrodinámica de explosiones, la estadística y otras áreas de las matemáticas. Es considerado uno de los matemáticos más importantes del siglo XX. Una computadora basada en la arquitectura de Von Neumann hace una clara distinción entre los elementos de procesamiento y almacenamiento de información, es decir, el procesador y la memoria están separados por un bus de comunicación. Dos aspectos surgieron en la computadora de von Neumann: organización y procesamiento de la memoria.
Ley de Moore
El cofundador de Intel, Gordon Moore, estableció la Ley de Moore a mediados de la década de 1960. Según él, la cantidad de transistores por unidad de área en los circuitos integrados se duplica cada dos años. y esta sería una tendencia que continuaría en los próximos años.
Si esta tendencia continúa, significaría que para 2050, el poder de procesamiento de las computadoras se duplicará 20 veces. Y este será sin duda el cambio más importante que se hará en los ordenadores en los próximos años, ya que su rendimiento aumentará de forma espectacular.
Problemas con la computación cuántica
Paradoja cuántica “El gato de Schrödinger” visto desde el punto de vista de la interpretación de muchos universos. En esta interpretación, cada evento involucra un punto de bifurcación en el tiempo, el gato está vivo y muerto, incluso antes de que se abra la caja, pero los gatos están “vivos” y “muertos” en diferentes ramas del universo, por lo que ambos son igualmente ciertos. pero no pueden interactuar entre sí.
Uno de los principales obstáculos de la computación cuántica es el problema de la desintegración cuántica, que hace que se pierda el carácter unitario de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, especialmente el tiempo de relajación del cruce, suelen estar entre nanosegundos y segundos a bajas temperaturas. Las tasas de error suelen ser proporcionales a la relación entre el tiempo de operación y el tiempo de desintegración, por lo que cualquier operación dada debe completarse en un período de tiempo mucho más corto que el tiempo de desintegración: integrado. Si la tasa de error es lo suficientemente baja, la corrección de errores cuánticos se puede usar de manera efectiva, lo que permite tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos.
Curiosidades y otros
- Por qué brillan los satélites - 4 agosto, 2023
- Por qué la FM tiene tan poco alcance - 4 agosto, 2023
- Quién inventó el secador de pelo - 4 agosto, 2023
Dejar un comentario
¿Quieres unirte a la conversación?Siéntete libre de contribuir