La litografía computacional (también conocida como escalado computacional ) es el conjunto de enfoques matemáticos y algorítmicos diseñados para mejorar la resolución alcanzable a través de la fotolitografía . La litografía computacional se ha puesto a la vanguardia de la fotolitografía en 2008 cuando la industria de los semiconductores se enfrentó a los desafíos asociados con la transición a la tecnología de proceso CMOS de 22 nanómetros y más allá.
Fotolitografía ultravioleta profunda de 193 nm
La mejora periódica en la resolución lograda a través de la fotolitografía ha sido una fuerza impulsora detrás de la Ley de Moore . Las mejoras de resolución permiten la impresión de geometrías más pequeñas en un circuito integrado . El tamaño mínimo de característica que puede imprimir un sistema de proyección que se usa típicamente en fotolitografía viene dado aproximadamente por:
dónde
es el tamaño mínimo de la característica (también llamada dimensión crítica ).
es la longitud de onda de la luz utilizada.
es la apertura numérica de la lente vista desde la oblea.
(comúnmente llamado factor k1 ) es un coeficiente que encapsula factores relacionados con el proceso.
Históricamente, las mejoras de resolución en fotolitografía se han logrado mediante la progresión de fuentes de iluminación paso a paso a longitudes de onda cada vez más pequeñas, desde fuentes "g-line" (436 nm) e "i-line" (365 nm) basadas en lámparas de mercurio , hasta sistemas actuales basados en fuentes de láseres excímeros ultravioleta profundos a 193 nm. Sin embargo, la progresión a fuentes de longitud de onda aún más finas se ha estancado por los problemas insolubles asociados con extrema litografía ultravioleta y de rayos x litografía , obligando a los fabricantes de semiconductores para extender los actuales 193 sistemas de litografía óptica nm hasta alguna forma de litografía de próxima generación demuestra viable (aunque También se han comercializado motores paso a paso de 157 nm, han demostrado tener un costo prohibitivo a $ 50 millones cada uno). [1] Los esfuerzos para mejorar la resolución aumentando la apertura numérica han llevado al uso de la litografía por inmersión . Como las mejoras adicionales en la resolución a través de la reducción de la longitud de onda o los aumentos en la apertura numérica se han vuelto técnicamente desafiantes o económicamente inviables, se ha prestado mucha atención a la reducción del factor k1. El factor k1 se puede reducir mediante mejoras en el proceso, como las fotomáscaras de desplazamiento de fase . Estas técnicas han permitido la fotolitografía en el nodo de tecnología de proceso CMOS de 32 nanómetros utilizando una longitud de onda de 193 nm (ultravioleta profundo). Sin embargo, con la hoja de ruta de ITRS que exige que el nodo de 22 nanómetros esté en uso en 2011, los investigadores de fotolitografía han tenido que desarrollar un conjunto adicional de mejoras para que la tecnología de 22 nm se pueda fabricar. [2] Si bien el aumento en el modelado matemático se ha estado realizando durante algún tiempo, el grado y el costo de esos cálculos ha justificado el uso de un nuevo término para cubrir el panorama cambiante: litografía computacional.
Historia
La litografía computacional significa el uso de computadoras para simular la impresión de estructuras de micro-litografía. Chris Mack en la NSA realizó un trabajo pionero en el desarrollo de PROLITH , Rick Dill en IBM y Andy Neureuther en la Universidad de California, Berkeley desde principios de la década de 1980. Estas herramientas se limitaron a la optimización del proceso de litografía, ya que los algoritmos se limitaron a unos pocos micrómetros cuadrados de resistencia. La corrección de proximidad óptica de chip completo comercial, utilizando formas modelo, fue implementada por primera vez por TMA (ahora una subsidiaria de Synopsys ) y Numerical Technologies (también parte de Synopsys) alrededor de 1997. [3]
Desde entonces, el mercado y la complejidad han crecido significativamente. Con el cambio a la litografía de sub-longitud de onda en los nodos de 180 nm y 130 nm, las técnicas de RET como las funciones de asistencia y las máscaras de desplazamiento de fase comenzaron a usarse junto con OPC. Para la transición de los nodos de 65 nm a los de 45 nm, a los clientes les preocupaba no solo que las reglas de diseño fueran insuficientes para garantizar la impresión sin puntos de acceso que limiten el rendimiento, sino también que el tiempo de salida de cinta puede necesitar miles de CPU o semanas de tiempo de ejecución. Este aumento exponencial previsto en la complejidad computacional para la síntesis de máscaras al pasar al nodo de proceso de 45 nm generó una importante inversión de capital de riesgo en diseño para empresas de nueva creación de fabricación . [4]
Comenzaron a aparecer varias empresas de nueva creación que promocionaban sus propias soluciones disruptivas para este problema, se promocionaron técnicas desde la aceleración de hardware personalizada hasta algoritmos nuevos y radicales como la litografía inversa para resolver los próximos cuellos de botella. A pesar de esta actividad, los proveedores tradicionales de OPC pudieron adaptarse y mantener a sus principales clientes, con RET y OPC utilizados juntos como en los nodos anteriores, pero ahora en más capas y con archivos de datos más grandes, y los nuevos algoritmos respondieron a las preocupaciones sobre el tiempo de respuesta. y mejoras en procesadores de productos básicos de varios núcleos. El término litografía computacional fue utilizado por primera vez por Brion Technology (ahora una subsidiaria de ASML ) en 2005 [5] para promover su plataforma de simulación de litografía de chip completo acelerada por hardware. Desde entonces, la industria ha utilizado el término para describir soluciones de síntesis de máscara de chip completo. A medida que 45 nm entre en plena producción y se retrasa la introducción de la litografía EUV, se espera que 32 nm y 22 nm funcionen con la tecnología de escáneres de 193 nm existente.
Ahora, el rendimiento y las capacidades no solo tienen que ver con la repavimentación, sino que también las nuevas técnicas de litografía computacional, como la optimización de la máscara de fuente (SMO), se consideran una forma de obtener una mejor resolución específica para un diseño determinado. En la actualidad, todos los principales proveedores de síntesis de máscaras se han decidido por el término "litografía computacional" para describir y promover el conjunto de tecnologías de síntesis de máscaras necesarias para 22 nm.
Técnicas que comprenden la litografía computacional
La litografía computacional hace uso de una serie de simulaciones numéricas para mejorar el rendimiento (resolución y contraste) de las fotomáscaras de última generación. Las técnicas combinadas incluyen la Tecnología de Mejora de Resolución (RET), Corrección de Proximidad Óptica (OPC), Optimización de Máscara de Fuente (SMO), etc. [6] Las técnicas varían en términos de su viabilidad técnica y sensibilidad de ingeniería, lo que resulta en la adopción de algunos y la continua I + D de otros. [7]
Tecnología de mejora de resolución
Tecnologías de mejora de la resolución , utilizadas por primera vez en la generación de 90 nanómetros , que utilizan las matemáticas de la óptica de difracción para especificar fotomáscaras de desplazamiento de fase multicapa que utilizan patrones de interferencia en la fotomáscara que mejoran la resolución en la superficie de la oblea impresa.
Corrección de proximidad óptica
La corrección de proximidad óptica utiliza métodos computacionales para contrarrestar los efectos del desenfoque y la subexposición relacionados con la difracción modificando las geometrías en la máscara con medios tales como: ajustar los anchos de línea en función de la densidad de las geometrías circundantes (una traza rodeada por un área abierta grande será sobreexpuesto en comparación con el mismo trazo rodeado por un patrón denso), agregando tapones de "hueso de perro" al final de las líneas para evitar el acortamiento de las líneas, corrigiendo los efectos de proximidad del haz de electrones
OPC se puede dividir ampliamente en basado en reglas y basado en modelos. [8] La tecnología de litografía inversa, que trata el OPC como un problema de imagen inversa, también es una técnica útil porque puede proporcionar patrones de máscara poco intuitivos. [9]
Modelado complejo del sistema de lentes y fotorresistencia
Más allá de los modelos utilizados para RET y OPC, la litografía computacional intenta mejorar la capacidad de fabricación del chip y los rendimientos mediante el uso de la firma del escáner para ayudar a mejorar la precisión del modelo OPC: [10] características de polarización de la pupila del lente, matriz de Jones de la lente paso a paso, parámetros ópticos de la pila fotorresistente , difusión a través del fotorresistente, variables de control de iluminación paso a paso.
Cálculos de un siglo de CPU o más
El esfuerzo computacional detrás de estos métodos es inmenso. Según una estimación, los cálculos necesarios para ajustar las geometrías OPC para tener en cuenta las variaciones del enfoque y la exposición de un circuito integrado de última generación tomarán aproximadamente 100 años de CPU de tiempo de computadora. [11] Esto no incluye el modelado de la polarización 3D de la fuente de luz o cualquiera de los varios otros sistemas que necesitan ser modelados en la producción de flujos de creación de máscaras fotolitográficas computacionales. Brion Technologies, una subsidiaria de ASML , el mayor fabricante de sistemas de fotolitografía, comercializa un acelerador de hardware montado en bastidor dedicado para su uso en la realización de cálculos litográficos computacionales: un taller de fabricación de máscaras puede comprar una gran cantidad de sus sistemas para que funcionen en paralelo. Otros han afirmado una aceleración significativa utilizando tarjetas gráficas listas para usar reutilizadas para su alto rendimiento en paralelo. [12]
Referencias
- ^ "La tecnología de mejora de la retícula extenderá la vida útil de la litografía de 193 nm" , Electronics Weekly , 2004-02-25
- ^ Moretti, Gabe (2008-10-13), "Direcciones litográficas personalizadas de fabricación de circuitos integrados de 22 nm" , EETimes , archivado desde el original el 22 de enero de 2013
- ^ "El principal fabricante de semiconductores de EE. UU. Elige TMA para el software OPC" , PRNewswire , 1997-10-16[ enlace muerto ]
- ^ McGrath, Dylan (16 de diciembre de 2005), "DFM aumenta el volumen" , EETimes
- ^ McGrath, Dylan (2005-02-12), "Proveedor de simulación litográfica abre una subsidiaria japonesa" , EETimes
- ^ LaPedus, Mark (17 de septiembre de 2008), "IBM obtiene 'escalado computacional' para litografía a 22 nm" , EETimes
- ^ E. Lam; A. Wong (2009), "Litografía computacional: realidad virtual y virtualidad virtual" , Optics Express , 17 (15): 12259–12268, Bibcode : 2009OExpr..1712259L , doi : 10.1364 / OE.17.012259 , hdl : 10722/62090 , PMID 19654627
- ^ A. Wong (2001), Técnicas de mejora de la resolución en litografía óptica , SPIE Press
- ^ S. Chan; A. Wong; E. Lam (2008), "Inicialización para síntesis inversa robusta de máscaras de desplazamiento de fase en litografía de proyección óptica" , Optics Express , 16 (19): 14746–14760, Bibcode : 2008OExpr..1614746C , doi : 10.1364 / OE.16.014746 , PMID 18795012
- ^ Hand, Aaron (noviembre de 2007), "Nikon and Synopsys Deliver on Advanced OPC Promise" , Semiconductor International , archivado desde el original el 2009-08-09 , consultado el 2010-01-15
- ^ Wiley, Jim (mayo de 2006), "Desafíos futuros en litografía computacional" , Tecnología de estado sólido
- ^ LaPedus, Mark (2008-02-28), "Gauda afirma un gran avance en la aceleración de OPC". , EE Times