Ir al contenido principal

Computación cuántica

 


                       Computación cuántica

  

                                          

La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos.

La computación cuántica o informática cuántica​ es un paradigma de computación distinto al de la informática clásica o computación clásica. Se basa en el uso de cubits, una especial combinación de unos y ceros. Los bits de la computación clásica pueden estar en 1 o en 0, pero solo un estado a la vez, en tanto que el cubits puede tener los dos estados simultáneamente. Esto da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos.

Una misma tarea puede tener diferente complejidad en computación clásica, en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,​ un computador cuántico equivale a una máquina de Turing cuántica.

El enfoque de las computadoras cuánticas es resolver problemas de una manera fundamentalmente nueva. Los investigadores esperan que con este nuevo enfoque de la computación puedan comenzar a explorar algunos problemas que nunca podremos resolver de otra manera.

La doctora Talia Gershon (directora de Estrategia de Investigación e Iniciativas de Crecimiento en IBM) describe la computación cuántica, de manera muy general, como una combinación entre tres factores: la superposición de giros, el entrelazamiento de dos objetos y la interferencia, la cual ayuda a controlar los estados cuánticos y amplificar los tipos de señales que están orientados hacia la respuesta correcta, y luego cancelar los tipos de señales que conducen a la respuesta incorrecta.



Origen de la computación cuántica







A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular; a esto se le denomina: efecto túnel.

Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son lo suficientemente delgadas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la informática. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit puede tomar solo uno de dos valores: 0 o 1. En cambio, en la computación cuántica intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 1 y 0 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de cúbits.

El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro solo podía tomar uno de esos valores. En cambio, si se tiene un vector de tres cúbits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de cúbits.

Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un procesador convencional de 10 teraflops (10 billones de operaciones en coma flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad de procesar 200 petaflops (200 mil billones).




Comentarios

Entradas populares de este blog

Partición de discos duros

  INTRODUCCIÓN Una partición de un disco duro es una división lógica en una unidad de almacenamiento (por ejemplo, un disco duro o unidad flash), en la cual se alojan y organizan los archivos mediante un sistema de archivos. Existen distintos esquemas de particiones para la distribución de particiones en un disco. Los más conocidos y difundidos son MBR (Master Boot Record) y GPT (GUID Partition Table). Para poder contener datos, las particiones tienen que poseer un sistema de archivos. El espacio no asignado en un disco no es una partición, por lo que no puede tener un sistema de archivos. Existen múltiples sistemas de archivos con diferentes capacidades como: FAT, NTFS, FAT32, EXT2, EXT3, EXT4, Btrfs, ReiserFS, Reiser4 u otros. Los discos ópticos (DVD, CD) utilizan otro tipo de particiones llamada UDF (Universal Disc Format, "Formato de Disco Universal" por sus siglas en inglés), el cual permite agregar archivos y carpetas y es por ello que es usado por la mayoría de softwar...

SQL

 QUE ES SQL? El Lenguaje de Consulta Estructurado popularmente conocido por sus siglas en inglés como SQL, es un tipo de lenguaje de programación que ayuda a solucionar problemas específicos o relacionados con la definición, manipulación e integridad de la información representada por los datos que se almacenan en las bases de datos. Algunos aspectos de SQL están basados en el cálculo relacional, algunos en el álgebra relacional que provienen del modelo relacional y otros a ninguno de los dos sino que son parte de SQL. SQL viene de Lenguaje Estructurado de Consulta. La gente suele pronunciar SQL como "sequel" y, a veces S.Q.L. SQL es una herramienta que los analistas de bases de datos, administradores y desarrolladores usan para acceder y manipular bases de datos. SQL es un lenguaje de computadora que puedes usar para interactuar con una base de datos relacional. Es un lenguaje completo para controlar e interactuar con los sistemas de administración de bases de datos. FUNCION...

Formateo de Discos Duros

¿Que es formatear un disco duro? El concepto de 'formatear el disco duro' es una de esas nomenclaturas tecnológicas que mucha gente escucha por recomendación del informático/amigo de turno o porque incluso se lo llega a pedir el propio dispositivo. Se trata de un terminología importante que debe ponerse en práctica para que cualquier ordenador funcione adecuadamente y se mantenga como el primer día (o lo mejor posible). Formatear es "dar formato a un disco", tal y como indica la Real Academia de la Lengua Española. Formatear es "dar formato a un disco", tal y como indica la Real Academia de la Lengua Española. De la mano del disco duro, este concepto hace referencia a eliminar lo que se encuentra en la unidad de almacenamiento, dejándola como quieras, aunque lo las habitual es dejarla a cero. Dicha práctica se lleva a cabo por motivos de todo tipo, desde instalaciones limpias del sistema operativo hasta borrar archivos residuales, dependiendo de las neces...