En producción: consejos sobre fiabilidad – Parte 6/6

En principio, esta serie estaba pensada para tener 5 partes, pero como he dejado algunas cosas en el tintero que me gustaría introducir, he agregado este «bonus» extra. En este caso lo dedicaré a describir algunos factores que afectan a la fiabilidad en sistemas microelectrónicos. Solo algunas pinceladas sencillas dirigidas a que tengas una idea más clara a la hora de comparar parámetros y elegir tu equipamiento.

En partes anteriores me limité a mostrar una tabla con algunas de las marcas recomendables de cada parte de un equipo informático, con algunas descripciones donde daba algunas claves. En este artículo se trata de ir un poco más allá. De esa forma, podrás buscar dispositivos fiables con independencia del tipo de hardware que sea y de su marca…

Recuerda: un buen mantenimiento puede prolongar la vida de un equipo.

Factores que influyen en la fiabilidad de sistemas microelectrónicos

Si conoces estos factores que influyen en la fiabilidad de los sistemas microelectrónicos, seguro que la próxima vez que vayas a comprar algún equipo nuevo te pueden ayudar a elegir entre las opciones que tienes disponibles y disipar tus dudas. Además, identificarás algunos factores ambientales que también pueden influir durante su uso.

Ya sabes que los semiconductores se fabrican a gran escala para que sean rentables, y su reparación no es viable. En vez de eso se sustituyen. Pero que no te engañen, si un sistema se estropea a los 2 o 3 años, no es lo normal. Los chips y circuitos pueden durar décadas sin problemas. De hecho, la industria del automóvil alemana exige que los chips empleados duren 18 años sin defectos como mínimo. En ciertos sistemas embebidos, donde es complicado sustituir los elementos, se buscan dispositivos que duren 20 o más años.

Para no alargar demasiado el artículo, que ya es bastante largo y denso de por sí con las 6 partes, intentaré resumirlo al máximo, sin entrar en demasiados detalles técnicos o explicaciones. Dicho esto, los factores son los siguientes…

Complejidad vs simplicidad

Una de mis marcas favoritas de coches es Hispano-Suiza. ¿Por qué digo esto? Pues bien, siempre he admirado al ingeniero Marc Birkigt y su filosofía de innovación+simplificación. Mientras la competencia de HS se dedicaba a usar propulsores antiguos reforzados, Birkigt creaba motores nuevos a los que simplificaba para conseguir una fiabilidad extrema. Por decirlo de algún modo, si puedes hacer una misma función con 50 piezas, ¿por qué usar 100? Eso supondrá la mitad de posibles problemas (véase Principio KISS).

Esta fue la filosofía que hizo a esta marca mítica y que se puede exportar a cualquier otro ámbito. Cualquier sistema, SW o HW, mientras más simple sea, mucho menos problemas debe de dar.

Un sistema digital (esto podría no servir para sistemas cuánticos y de IA) es confiable cuando para una misma entrada, introducida cualquier número de veces, se obtiene siempre el mismo resultado.

Claro, te puedes estar preguntando sobre cómo saber si un chip o un binario de software es más o menos complejo sin ver el diagrama del circuito o el código fuente respectivamente. Lo cierto es que no es nada fácil:

  • Software: si estás comparando código abierto es sencillo observando las líneas (que no sean comentarios) de ambos proyectos. En caso de ser un binario con código cerrado, puedes comparar el tamaño que ocupan. No obstante, esto no es demasiado fiable, puesto que las bibliotecas estáticas integradas en el propio paquete pueden incrementar el tamaño, mientras otro proyecto puede emplear bibliotecas dinámicas externas… Pero puede ser una referencia orientativa.
  • Hardware: en caso de ser un PCB se puede observar a simple vista o ver si es multicapa. En caso de ser un circuito integrado, entonces hay trucos, como observar la superficie de un die en comparación con otro (siempre que el nodo de fabricación se el mismo). Aunque no es del todo fiable (un mayor tamaño a igual nodo puede deberse a una mala optimización del layout, uso de memorias de mayor tamaño, lógica BIST, etc.), como le ocurre al software, pero puede ser orientativo. Nuevamente, si es un hardware libre y tienes a tu alcance la información, todo será mucho más sencillo a la hora de comparar.

Por cierto, hace años, la degradación de rendimiento de un sistema se debía principalmente al software y a la aplicación de parches. En la actualidad, la enorme complejidad del hardware también puede implicar un deterioro progresivo del rendimiento. Y detectar esto a tiempo podría ser indicativo de que se necesita sustituir la máquina.

Factores ambientales

La humedad relativa puede deteriorar ciertos componentes de los equipos, o generar condensación de agua que pueda afectar a los circuitos. Esto es algo bien sabido en los centros de datos. De hecho, algunas históricas caídas de ciertos servidores de plataformas webs muy conocidas, se debieron a un fallo en el sistema de control de HR del data center.

Lo ideal sería mantener la HR entre 40 y 55%, algo que puedes medir con un higrómetro o usar deshumidificadores para mantener esos valores. Valores por encima o por debajo puede generar cortocircuitos, corrosión/oxidación prematura de metales, descargas electroestáticas, etc.

La temperatura es el otro factor ambiental que afecta a los sistemas, y también a la saturación de humedad del aire (véase Punto de rocío). No solo es importante tener una buena refrigeración de los componentes internos, también la temperatura de la sala en la que se encuentra el equipo debería estar siempre entre valores seguros, es decir, entre 15 y 25ºC.

La Ley de Arrhenius se suele aplicar en estos casos. Una ley del físico y químico sueco y Premio Nobel, Svante A. Arrhenius, y que se basa en la regla de los 10ºC. Viene a decir que cualquier componente o material tiene un tiempo de vida útil que se reduce a la mitad por cada 10ºC de aumento de temperatura. Y también es reversible, es decir, por cada 10ºC de temperatura que se baje, la vida útil se duplicará. [siempre dentro de los rangos recomendados por el fabricante]

Algunos estudios han establecido la dependencia de la vida útil de un CI con respecto a los cambios de temperatura. Por ejemplo, G. Buchanan y el Dr. H. W. Whittingtont establecieron en uno de sus experimentos sobre la fiabilidad en un chip (no se puede trasladar a cualquiera, pero sí puedes hacerte una idea de cómo afecta) que:

  • 98ºC –> 100k horas de vida (aprox. 11 años y medio)
  • 123ºC –> 10k horas de vida (aprox. 1 año)
  • 160ºC –> 1k horas de vida (aprox. 41 días)

Cuida también la limpieza del ambiente o la sala donde se encuentran los equipos. Tener sistemas de purificación con filtros HEPA puede ayudar mucho a que los sistemas de refrigeración trabajen siempre en perfectas condiciones, sin que acumulen tanto polvo. Eso se traduce en un menor estrés de estos sistemas y temperaturas más bajas.

Algunos dispositivos han pasado los estándares MIL-STD o MIL-SPEC (especificaciones militares), por lo que serán mucho más resistentes a estos factores ambientales en condiciones extremas. Algunos componentes de consumo para el hogar también han pasado por esos mismos estándares, por lo que suelen ser mucho más fiables.

Por último, las vibraciones y golpes también son factores ambientales que pueden afectar a la fiabilidad de los equipos. Debería evitarse en los casos en los que sea posible, o protegerse (carcasas, sistemas de amortiguación o disipación cinética,…) en los que no se puedan evitar. Lo mismo ocurre con los líquidos, cuando funcione en un entorno sumergido o que se puedan producir salpicaduras. En este caso el hermetizado en una carcasa estanque es imprescindible (véase grado de protección IP, de la que ya hablé).

Factores inherentes a los dispositivos microelectrónicos

El empaquetado (packaging) de los circuitos integrados, y también del resto de componentes (diodos, transistores,…), también es vital para la vida de cada elemento. E incluso si es un empaquetado hermético o no hermético. Evidentemente, los no herméticos son más baratos, pero su factor de calidad es incluso tres veces superior, es decir, son hasta 3 veces menos fiables que los herméticos.

Además de eso, también hay otros factores que influyen en la fiabilidad de los componentes. Como algunos elementos integrados en las PCBs no se pueden modificar, como las resistencias, condensadores, etc., que ya incluyen, intentaré detallar un poco más en aquellos casos en los que sí puedes elegir (chips, placas base,…). Por ejemplo:

  • Resistencias: como usuario puedes hacer poca cosa para aumentar la vida útil de una resistencia, tan solo intentar reducir el estrés mecánico y térmico al que se someten. La humedad también es un factor que puede alterar la estabilidad a la larga. En cuanto a los tipos más fiables, las de copuestos de carbono, y las de óxido de metal suelen ser mejores que las de capa metálica.
  • Condensadores: lo mismo dicho para las resistencias es aplicable para estos otros componentes electrónicos. En cuanto a los más fiables, esto depende mucho del tipo. No se puede determinar que uno sea mejor que otro, puesto que no todos valen para cualquier aplicación. Pero, por ejemplo, los de papel son autoregenerables, ya que cuando se perfora el dielećtrico de papel, se genera un cortocircuito entre armaduras que produce a su vez una alta densidad de corriente que termina fundiendo la fina capa de aluminio que rodea a la rotura, lo que restablece nuevamente el aislamiento. En cuanto a los COTS (Commercial-Off-The-Self) que se usan en la industria militar y aeroespacial, cada vez se emplean más en algunos productos de consumo, como los de tantalio o los multicapa cerámica. Evidentemente, éstos COTS tienen mayor fiabilidad…
  • Inductores: en este caso también es aplicable mucho de lo dicho para las resistencias…
  • Diodos/Transistores: si los componentes tienen un empaquetado hermético, en tu mano solo está mantener la temperatura correcta para aumentar su vida. Eso sí, si tienes la oportunidad de elegir entre dispositivos semiconductores discretos, siempre busca los que dispongan de un empaquetado metálico (como algunos TO-5, TO-18,…), es decir, de materiales que disipen mejor el calor producido que los de plástico.
  • Chips: en este caso, si el empaquetado es hermético, puedes evitar la deriva de rendimiento, y daños, manteniendo una temperatura adecuada. Olvida las prácticas de overclocking/overvolting. En todo caso, para aumentar la vida puedes hacer lo contrario: underclocking/undervolting. Ya sabes, para que un CI dure más tiempo:
    • Empaquetado hermético. Eso aumenta la fiabilidad casi en un factor x3. Además, es importante el tipo de material que se emplea (cerámico, compuestos orgánicos,…), ya que alterará la capacidad de disipar calor. Además, materiales como el LTCC puede tener una rigidez y características más parecida al FR-4 del substrato, lo que podría mejorar la fiabilidad al reducir posibles diferencias de dilatación entre materiales diferentes que generen tensiones en las conexiones, evitar ejercer ciertas tensiones sobre el troquel, o sobre las bumps (bolas soldadas a los pads en los flip-chip)… Los empaquetados se han vuelto incluso más importantes en la actualidad debido al uso de técnicas de empaquetado 2.5D/3D, ya que se aumenta el número de conexiones entre substratos y se emplean técnicas como TSV que los hacen más sensibles a ciertas tensiones.
    • Frecuencia baja. Es como las RPM de un motor, mientras más revolucionado, menos durará. Algunos cambios en la fabricación, como tecnologías para reducir el leakage, como SOI, permiten mejorar la velocidad de conmutación de los transistores y toleran algo mejor las más altas frecuencias a igual voltaje.
    • Voltaje bajo. La frecuencia que se puede alcanzar de forma estable está relacionada con el voltaje. Algunos chips no son estables si se baja el voltaje sin bajar también la frecuencia. A su vez, la tensión depende de la tecnología de fabricación y materiales empleados.
    • TDP bajo. La temperatura (véase Efecto Joule) alcanzada con potencias elevadas solo ayudan a reducir la vida del dispositivo. Además, ya sabes que la temperatura y la frecuencia están muy relacionados con el deterioro de las interconexiones metálicas (véase electromigración). El estrés térmico también afecta a ciertos materiales, que pueden presentar roturas, como las juntas de soldadura, perforaciones en ciertas uniones metal-semiconductor, etc. Con la llegada de las interconexiones de cobre, sustituyendo a las de aluminio, y materiales como los dieléctricos low-κ, han contribuido a disipar mejor el calor debido a su mejor conductividad térmica.
    • Die size pequeño. Algunos análisis estiman que, si se mantienen constantes otros parámetros, a medida que aumenta el tamaño de la superficie de un chip se volverá menos fiable. Por ejemplo, al duplicar el tamaño se podría reducir un 30% la fiabilidad. No obstante, no para todo es ideal una superficie más reducida como, por ejemplo, para disipar calor (la superficie en contacto con el IHS, o para disipación por convección es menor).
    • Pin-count mayor. El recuento de pines de un CI también puede influir. Mientras más tenga, mejor reparto se hará de las líneas de voltaje/GND, así como el reloj, reduciendo la impedancia. Incluso influye en la disipación de temperatura, ya que un dado puede disipar el calor a través de dos vías: pads/pines y su superficie. De hecho, en muchos datasheets aparece el factor θJA (Junction-to-ambientthermal resistance) es una constante que depende de los pines y del empaquetado.
    • Transistor-count/Densidad baja. Más transistores por unidad de superficie (densidad) reduce el tamaño del dado, al ser más pequeños también es más rápida su conmutación, necesitan menos voltaje, etc. Pero significa que pueden crecer otros efectos, como el efecto túnel, posibles defectos de fabricación pese a usar un nodo más bajo, secciones más pequeñas tendrán que aguantar corrientes elevadas por unidad de superficie, etc. Además, mayor complejidad de un circuito también implicará más dispositivos semiconductores integrados e interconexiones que pueden fallar…
    • Monolítico vs chiplet: algunos, como AMD, han optado por diseños chiplets, otros como Intel continúan con sus chips monolíticos. Los chips monolíticos pueden comunicarse de forma más rápida entre las distintas partes del torquel, pero el yield de la fabricación es muy pobre y son más propensos a problemas. En cambio, los chiplets se componen de troqueles varios troqueles más pequeños con un yield superior y son menos propensos a problemas debido a su menor superficie. Pese a esto, no se puede determinar que un dispositivo monolítico tenga más o menos fiabilidad que uno chiplets si no se están comparando diseños idénticos.
  • Conectores: deben ser de buena calidad (estructural/materiales), a partir de ahí, como usuario solo puedes ser cuidadoso con ellos y protegerlos de golpes, suciedad, etc.
  • PCBs: mejor evita las placas multicapa cuando sea posible (aunque esas tienen mejor resistencia a esfuerzos debido al mayor número de capas), y en el caso de no serlo, la que tenga menor número de ellas y menor densidad de componentes. Aunque ahora se usan tintes para teñir las placas de circuitos impresos, su color original es muy indicativo sobre el material del substrato empleado:
    • Color del substrato: se dice que las verdes suelen ser de fibra de vidrio y resina epoxy; las de color beige de papel y resina epoxy; y las marrones de baquelita y resina epxoy. Pero esto no es exacto del todo, más teniendo enc cuenta los tintes que se emplean actualmente. Lo que sí tienes que buscar, independientemente del color, debería ser de calidad del susbstrato, capaz de tener u Tg elevado, es decir, una buena capacidad para tolerar la temperatura. Las destinadas a alto rendimiento suelen tener Tg = 170ºC.
      • FR-4 (fibra de vidrio y epoxy): se utiliza ampliamente en placas estándar. Su punto de Tg es 135˚C. También tiene una versión con un Tg alto de 150-210˚C para placas de alto rendimiento y gran densidad.
      • CEM-1, CEM-2 y CEM-3 (composites epoxy): usado en aplicaciones de alta densidad. CEM-1 ofrece una Tg de 122˚C, CEM-2 tiene una Tg de 125˚C y CEM-3 tiene una Tg de 125˚C.
      • RF-35 (cerámica orgánica laminada): proporciona una Tg de 130˚C, lo que lo convierte en un candidato para aplicaciones de alta densidad.
      • Teflón  (PTFE (Politetrafluoroetileno): puede ser una buena opción en placas de alta frecuencia, microondas y alta potencia con su Tg de 160˚. Existen combinaciones de PTFE+FR-4 que puede llegar a  un Tg de 240-280˚C.
      • Poliimida (plástico PI): este polímero puede usarse como sustrato con una Tg de 250˚C o más para situaciones de alta potencia, alta frecuencia y microondas. Los sustratos de poliimida son los preferidos para los circuitos flexibles porque los sustratos FR4 son muy rígidos. Además de la flexibilidad, las poliimidas tienen una alta resistencia a las temperaturas pero son más costosas que las FR4.
    • Color de la máscara de soldadura: no hay que confundirlos con la tinta de serigrafía, que suele ser blanca o amarilla, que es una tinta termoendurecible para agregar información de los componentes superficiales. La máscara de soldadura es diferente, unos materiales termoendurecibles que se aplican superficialmente y que no solo son estéticos, además, puede afectar a la calidad del PCB y a la flexibilidad del mismo. Además, esta capa actúa como protección contra rayaduras, por lo que el grosor es importante, al igual que su curación, para evitar una mala adhesión. Por ejemplo:
      • Verde: es muy popular, puede ser una buena opción para imprimir texto en blanco, lo que le da una buena legibilidad. Este color, junto con el blanco y el negro, son los únicos que tienen su razón para ser aplicados. El resto, como el rojo, amarillo, azul, etc., son más estéticos que otra cosa.
      • Blanco: se ven muy limpias, y están ganando popularidad, pero su inspección visual puede ser más complicada con luz artificial. Suelen usar serigrafías negras.
      • Amarillo: son bastante nuevas, y muy llamativas. Pero tienen poco contraste y no se suelen usar pala PCBs estándar.
      • Azul: es ideal con serigrafía blanca para placas de alta densidad. Se ha hecho bastante popular en algunos fabricantes de placas base.
      • Rojo: otro de los colores muy usados en algunas placas base. Entre sus ventajas está los buenos contrastes de las serigrafías.
      • Negro: también empleado por algunos fabricantes, como ASUS y en las placas para productos de Apple, ya que tiene buen contraste con serigrafía blanca. Sin embargo, el principal inconveniente es que algunos componentes pueden captar la luz y producir una pequeña sombra que dificulta el rastreo y la inspección de las pistas es complicada. Es por eso que muchas placas de productos de gama alta suelen ser negros, ya que es una forma de dificultar el rastreo, para «proteger» su avanzada tecnología de miradas indiscretas. No obstante, las máscaras de soldadura negras no se recomiendan en varias aplicaciones, con altas temperaturas, ya que pueden decolorar la serigrafía. Además, las pizarras negras presentan una mezcla de cobalto y carbono, que puede tener una conductividad pequeña.
  • Transductores: son componentes bastante impredecibles en cuando a fiabilidad, pero son de los más dependientes del modo de uso y mantenimiento. Por tanto, usarlos de la forma correcta y llevar un buen mantenimiento es la mejor receta para evitar que lleguen de forma precipitada al fin de su vida útil.

*Teniendo en cuenta que todos están siendo alimentados con el voltaje e intensidad adecuados.

Partes Vida media estimada (años) Notas
Condensador cerámico >100 Se refiere a los MLCCs.
SSD 20-30 Se estima la vida media tomando como referencia un SSD de 120GB y con tasas de 10 GBW/día (Gigabytes escritos por día).
HDD 9.7-13.5 Es la vida media, no el uso acumulado en horas.
Condensador electrolítico 3.7-14.6 Son los culpables de que fuentes de alimentación, placas base y otros dispositivos terminen fallando.
Ventilador de CPU 3.4-5.7 Si se mantienen lubricados y limpios, durarán más. Pero están limitados por los rodamientos, que soportan unas horas determinadas.
Pasta térmica >2 Depende de la temperatura y las condiciones, pero se degradan con el tiempo y deben ser renovadas.
Periféricos Variable Los monitores, teclados, ratones, mandos, etc., tienen una vida variables, y depende mucho del uso.
Baterías Li-Ion 2-5 Podrían variar en función de si se emplean técnicas de carga rápida (reduce su vida) o no.
Panel solar >50 Pero suelen perder el 80% de su potencia de salida en los primeros 25 años.
PSU o adaptadores AC/DC 3.7-14.6 Las fuentes de alimentación están limitadas especialmente por los condensadores electrolíticos.
Inverter 10 Afortunadamente es fácil de reparar con herramientas estándar.
UPS o SAI 3-5 Depende bastante del tipo de batería que contenga el sistema de alimentación ininterrumpida

Nuevos materiales

Los materiales y estructuras de los dispositivos electrónicos están evolucionando de forma dinámica. Cada cierto tiempo surgen nuevos materiales que mejoran las prestaciones y la fiabilidad de estos circuitos, aunque no siempre los nuevos materiales aportan mayor fiabilidad (véase un ejemplo en la entrevista que di para Entrevistas En Diferido sobre Intel).

Un ejemplo de mejoras en cuanto a materiales para una mayor fiabilidad es el nuevo sustrato que ha presentado Panasonic. Se trata de una placa de circuitos impresos que integra un composite de vidrio (CEM-3) para mejorar la estabilidad y robustez de los dispositivos electrónicos. Un material especialmente pensado para el sector industrial y de la automoción.

La mejora de fiabilidad se consigue gracias a su coeficiente de expansión térmica, que es más bajo que los actuales sustratos. Eso hará que con el aumento de temperatura y las dilataciones, la fiabilidad de los montajes sea superior.

Propiedades generales

Artículo Método de prueba Condición Unidad R-1785 Nuestro
CEM-3 convencional
Nuestro
FR-4 convencional
Temp. De transición vítrea (Tg) TMA Temperatura. tasa de aumento: 10 ° C / min ° C 150 140 140
Resistencia al calor de la soldadura JIS C 6481 Un
flotador de soldadura a 260 ° C durante 2 min
Sin anormalidad Sin anormalidad Sin anormalidad
Eje x CTE α1 IPC-TM-650 2.4.41 TMA ppm / ° C 19 (15) 25 (20) 13
Eje y CTE 21 (17) 28 (23) 15
Eje z CTE α1 IPC-TM-650 2.4.24 TMA ppm / ° C 50 sesenta y cinco sesenta y cinco
Constante dieléctrica (Dk) 1 MHz IPC-TM-650 2.2.2.9 C-96/20/65 4.5 4.5 4.8
Factor de disipación (Df) 0,019 0,015 0,015
Resistencia de aislamiento JIS C 6481 C-96/20/65 5 × 10 8 5 × 10 8 1 × 10 8
Resistencia de seguimiento IEC 60112 A V CTI ≥ 600 CTI ≥ 600 250> CTI ≥ 175
Precisión de espesor
(valor σ)
A mm 0.013 0.013 0,027

Más información – Web oficial

Otros factores

No respetar las recomendaciones del fabricante especificadas en datasheets/manuales, usando un sistema a temperaturas fuera del rango estimado, con voltajes y corrientes inapropiadas, someterlo a un estrés mecánico para el que no esté preparado, vibraciones, golpes, radiación, presión, campos electromagnéticos, etc., también es una fuente de problemas.

Recuerda que esta documentación no es como el envoltorio o la caja en la que viene un producto, sirve para algo más…

BONUS (manufactura)

Esto es más difícil de controlar desde el lado del cliente/usuario, pero investigando se pueden sacar algunas conclusiones al respecto. Y es que, tanto si el CI procede de un IDM como si procede de una fabless+foundry, es importante analizar la tecnología de fabricación de la fuente.

Los semiconductores son muy susceptibles a impurezas y partículas introducidas durante los procesos de fabricación, o por el ambiente de la sala limpia, e incluso pueden alterarse por ciertos microprocesos (recocidos, ataques químicos, daños en las estructuras por la implantación iónica, etc.). También es especialmente crítico el nodo empleado, especialmente en capas delgadas y la unión de las interconexiones durante la metalización. El tipo de fotolitografía también es importante, ya que las nuevas EUV permiten crear estructuras más precisas y confiables.

Por supuesto, los materiales empleados también son importantes. Además, los nuevos procesos y materiales pueden suponer también un riesgo, ya que a veces se emplea NRE (Non-Recurring Engineering), donde se intenta ajustar la inversión y eso unido a la necesidad de lanzar nuevos dispositivos (en ocasiones no es posible usar diseños confiables ya existentes como base, sino que son totalmente nuevos) en tiempo récord se puede transformar en un producto poco fiable.

Si observas un die shot de un chip, lo que se muestra es muy revelador. No solo se puede identificar dónde se encuentran algunas partes. En algunos casos de circuitos simples se puede hacer ingeniería inversa para obtener el circuito, saber cómo está programada una memoria ROM integrada (obtener el microprograma), etc. Incluso se pueden analizar los colores para lograr determinar los grosores de las capas… Por eso, muchos diseñadores los editan o evitan mostrarlos, puesto que se puede saber mucho de ellos. Incluso sin llegar a decapar un chip, mediante termografía (se pueden identificar los hot spots, para saber dónde se encuentran ciertas unidades de ejecución), etc., se pueden llegar a saber muchas cosas…

Lo sé, tú no tienes la capacidad como cliente de influir en los materiales para los microprocesos, en las clases de la sala blanca empleadas, en el control de procesos, en los tests, etc. Pero, si lo recuerdas, en partes anteriores de este artículo te di un consejo sobre no comprar productos que acaban de salir al mercado. Eso te puede dar un margen para comenzar a leer opiniones de usuarios y los problemas que se han encontrado… Todos esos fallos de los que se quejan dan muchas pitas sobre esto, y son muy indicativos.

Todo esto también es aplicable a los procesos de ensamblaje, ya que una vez el wafer se termina y se pasa al dicing y montaje, se pueden cometer muchos errores (intencionados para abaratar costes, o no), como usar metales para soldadura de baja calidad, malas soldaduras (p.e.: soldadura fría), sustratos poco resistentes al estrés mecánico/térmico que terminen con las pistas o soldaduras, etc. Y recuerda que no siempre la misma fábrica que ha creado el die es la encargada de ensamblarlo. Por ejemplo, si te has fijado en los microprocesadores AMD, habrás visto que hay una serigrafía que pone «Difussed in USA» «Difused in Taiwan» «Made in China» (o Assembled in Malasia»). Esto es porque los dices de los procesadores están fabricados en la foundry TSMC (en caso de ser un chiplet, con el I/O Die separado, este otro chip se fabrica en GF en USA), y se empaquetan (packaging) en China.

Debido a la enorme cantidad de factores que influyen en esto, y a la creciente complejidad de los sistemas, en muchos dispositivos semiconductores para los sistemas de seguridad de la industria de los vehículos, para sistemas críticos, centros de datos, etc., cada vez se están haciendo más importantes los sistemas de monitorización. Eso pasa por lo que se conoce como in-chip monitoring, runtime monitoring, in-system monitoring, y la famosa BIST (Built-in Selft Test).

En algunos microprocesadores avanzados incluso hay sofisticados problemas para poder detectar y corregir problemas de electromigración, o se integra circuitería adicional para analizar ciertas variaciones como PVT (process, voltage, temperature) con sensores cerca de cada núcleo para medir diferentes valores de vlotaje y temperatura dentro de un SoC de una forma mucho más local, etc.

Otros sistemas, como memorias ECC, códigos CRC, bit de paridad, etc., pueden ayudar a detectar y corregir ciertas fallas, pero no contribuyen realmente a la fiabilidad del dispositivo.

Isaac

Apasionado de la computación y la tecnología en general. Siempre intentando desaprender para apreHender.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto:

Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar