¿Cómo funciona la computación cuántica?
En el modelo de cómputo tradicional el bit es la unidad mínima de información, el cuál corresponde a un sistema binario, sólo puede tomar dos valores, representados por 0 y 1. Usando más bits se pueden combinar para representar mayor cantidad de información.
Mientras que en el sistema de cómputo cuántico la unidad mínima de información es el Qbit, el cual posee el principio de superposición cuántica, gracias a esta propiedad el Qbit puede tomar diversos valores a la vez, puede ser 0 y 1, o bien es incluso posible que no sólo ocurra una superposición de ambos valores, sino que ocurra una superposición simultánea de todos los Qbits que se estén combinando, un conjunto de dos Qbits puede representar una superposición de valores: 00, 01, 10 y 11 a la vez. El incremento de la capacidad de superposición, equivale a una mayor capacidad de representación de información.
Entrelazamiento: es una cualidad con la que dos Qbits que han sido entrelazados (en una correlación); pueden ser manipulados para hacer exactamente lo mismo, garantizando que se puedan realizar operaciones en paralelo o simultáneamente, a este principio se le conoce como paralelismo cuántico; éste permite que la capacidad de realizar operaciones en paralelo crezcan de manera exponencial en relación con el número de Qbits con los que puede operar el computador.
Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética), está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.
El doctor Steven Girvin (profesor de física en el Instituto Cuántico de Yale), cuyo enfoque principal es la corrección de errores cuánticos y tratar de comprender el concepto de tolerancia a fallas, dice que «todos creen saberlo cuando lo ven, pero nadie en el caso cuántico puede definirlo con precisión». Así mismo, menciona que en un sistema cuántico, cuando se observa la tolerancia a fallas o se realizan mediciones, el sistema puede cambiar de una manera que está fuera de control.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente interesantes hoy en día.
Comentarios
Publicar un comentario