Nur 1 von 1 Milliarde

Zuverlässigkeit wird zunehmend ein entscheidender Faktor für Mikrochips. Denn Elektronik übernimmt immer mehr sicherheitskritische Funktionen: ob beim automatisierten Fahren, in der Medizintechnik oder der ­robotergestützten Industrieproduktion. Mit verschiedenen Ansätzen kann die Zuverlässigkeit von Mikroelektronik ­gesteigert werden.

Zuverlässigkeit bedeutet, dass der Mikrochip über seine gesamte Lebensdauer seine Aufgaben fehlerfrei erfüllt. Bisher hat sich die Halbleiterindustrie auf die Qualitätskontrolle während des Produktionsprozesses und einen abschließenden Test des fertigen Chips konzentriert – doch das stellt nur ein fehlerfrei gefertigtes Produkt sicher, nicht aber seine längerfristige Zuverlässigkeit im Feld. Dies ist im Consumer-Bereich, in dem die High-End-Chips mit Strukturgrößen von 10 Nanometer oder kleiner vor allem eingesetzt werden, noch kein größeres Problem. Denn hier war es bisher in der Regel zulässig, dass innerhalb einer angenommenen Lebensdauer von zwei Jahren einer von einer Million Chips ausfallen durfte. Doch seitdem immer mehr High-End-Chips auch in sicherheitskritischen Anwendungen eingesetzt werden, muss deren Zuverlässigkeit steigen. So fordert die Automobilindustrie zum Beispiel, dass Chips 18 Jahre fehlerfrei funktionieren bzw. in diesem Zeitraum nur ein Chip pro eine Milliarde ausfällt. Auch in anderen Märkten steigen die Anforderungen: Smartphone-Hersteller fordern inzwischen, dass Chips mindestens vier Jahre lang funktionieren statt wie früher nur zwei Jahre. Und in einigen Industrie- und IoT-Anwendungen, wo der Austausch von Sensoren schwierig ist, müssen Chips auch mal 20 Jahre oder länger halten. 

Zuverlässigkeit erhöhen

Um die Zuverlässigkeit eines Mikrochips zu erhöhen, müssen Designer das Zusammenspiel aller Komponenten im Blick haben: Eine optimale Gestaltung von Leiterplatte, Verbindungstechnik und Chipgehäuse ist Voraussetzung, wobei auch die Umgebungsbedingungen des zukünftigen Einsatzortes berücksichtigt werden müssen: Feuchtigkeit kann auch im Chip zu Korrosion führen, Vibrationen können Verbindungen lösen usw.

Zudem muss aber auch die Zuverlässigkeit des eigentlichen Halbleiter-Bauelements betrachtet werden. Dabei gelten einige Faustregeln: So sind aus gröberen Strukturen aufgebaute Chips tendenziell weniger anfällig gegenüber Einflüssen wie kosmischer Strahlung oder schwankenden Betriebsspannungen. Chips mit kleinerer Grundfläche leiden dagegen weniger unter mechanischen Stressfaktoren wie Vibration oder Temperaturdifferenzen. Zudem sind Chips auch einem Alterungsprozess ausgesetzt: So sorgt Elektronenmigration für eine Unterbrechung von Leiterbahnen, Temperatureffekte wie Bias Temperature Instability (BTI) und Hot Carrier Injection (HCI) spielen bei hochintegrierten Chips eine immer größere Rolle. Man spricht dabei von Alterung, Verschleiß oder Degradation. Durch die fortschreitende Miniaturisierung mikroelektronischer Bauelemente sind diese negativen Veränderungen der Materialeigenschaften noch vielfältiger und komplizierter geworden. Lokal auftretende Stromdichten und Feldstärken innerhalb einer Schaltung erreichen zum Beispiel in kleineren Strukturen eher kritische Werte. Bei Standardelektronik minimieren Designer üblicherweise das Ausfallrisiko, indem sie Sicherheitsreserven in ihre Entwürfe einbauen. Dieses sogenannte „Over Design“ ist allerdings teuer, zeitaufwändig und mit immer kleineren Technologien nicht mehr realisierbar.

Chips mit integriertem Selbsttest

Eine Lösung, um zumindest drohende Ausfälle früher zu erkennen, ist die Integration von Selbsttests in den Chip. Bei den sogenannten Built-in Self Tests (BIST) werden integrierte Schaltkreise durch Hardware- oder Softwarefunktionen ergänzt, mit denen sie ihre eigene Funktion testen können. So kann zum Beispiel der Prozessor-Takt überwacht werden: Ein „Clock-Control“ spürt eventuelle Taktfehler auf. Im Falle eines Falles wird das System automatisch in einen sicheren Status versetzt und ein entsprechendes Signal erzeugt.

Ausfälle vorhersagen

Noch einen Schritt weiter gehen Lösungen, die den gesamten Chip überwachen und mittels Künstlicher Intelligenz einen bevorstehenden Ausfall ankündigen können. So hat zum Beispiel das israelische Unternehmen ­proteanTecs eine intelligente On-Chip-Überwachungsmethode entwickelt. Sie verbindet eine auf maschinellem Lernen basierende Softwareplattform mit eigens entwickelten sogenannten Agenten, die bereits in der Entwicklung in das Halbleiterdesign integriert werden und im Halbleiter als Sensoren dienen. Durch deren Auslesen und die Analyse der daraus gewonnenen Daten können Erkenntnisse über Funktions- und Leistungsfähigkeit von Halbleitern und elektronischen Systemen gewonnen werden. Insbesondere bei neuen Halbleitergenerationen kann mit diesen Ergebnissen die Qualität und die Zuverlässigkeit gesteigert und die Lebensdauer verlängert werden.

Alterung simulieren

Um ein „Over Design“ zu vermeiden, können Designer zudem eine Simulation der zu erwartenden Alterung in den IC-Entwicklungsprozess integrieren. So lässt sich bereits in der Designphase die Zuverlässigkeit der Entwürfe genau prognostizieren. Zum Beispiel erarbeitet das Fraunhofer IIS an seinem Institutsteil Entwicklung Adaptiver Systeme EAS in Dresden dazu Ansätze. Dabei verbinden sie unter dem Schlagwort „Physics-of-Failure“ Wissen zu den physikalischen Mechanismen mit Ansätzen, die auf statistischen Daten über Ausfälle im Einsatz beruhen. So können Elektronikdesign-Teams zukünftig effizient potenzielle Zuverlässigkeitsprobleme von Halbleitern und Systemen bewerten – und das bereits vor ihrer Fertigung.

Fingerabdruck für Elektronik

Eng verwandt mit dem Thema Zuverlässigkeit ist die Vertrauenswürdigkeit. Denn gefälschte oder manipulierte Chips können auch zu einem Ausfall im Einsatz führen. Forscher der Universität Ulm arbeiten daher daran, einen fälschungssicheren physikalischen „Fingerabdruck“ für elektronische Leiterplatten, programmierbare Schaltungen und integrierte Schaltkreise (FPGA und Microcontroller) zu entwickeln. Die Idee basiert darauf, dass es bei der Produktion der Bauteile zu unvermeidlichen Prozessschwankungen kommt, die im Nanobereich zu kleinsten Abweichungen führen. Durch die detaillierte Erfassung dieser Abweichungen wird es möglich, das Bauteil über die gesamte Lebensdauer zu identifizieren. So kann später jederzeit herausgefunden werden, ob ein Bauteil ein Original ist oder ob es verändert wurde, um der Anwendung zu schaden. Der Grundgedanke dahinter: In der eindeutigen Identifizierbarkeit von Elektronik-Komponenten liegt der Schlüssel zu mehr Zuverlässigkeit. 

 

Begriffe rund um -Zuverlässigkeit

Defective Parts Per Million (DPPM): 

Defekte Teile pro Million. Bezeichnet auch ausgefallene Geräte pro Million gelieferter Einheiten.

­––––––

Failure in Time (FIT): 

Ausfallrate – Die Einheit FIT gibt die Anzahl der Bauteile an, die in 109 Stunden ausfallen (Ausfallrate bei 1 Fit also einmal in ca. 114.000 Jahren).

­––––––

Mean Time Between Failure (MTBF): 

Die durchschnittliche Zeit zwischen dem Auftreten von Defekten. Anders ausgedrückt, die Lebensdauer eines Chips dividiert durch die Gesamtzahl der Defekte.

­––––––

Mean Time To Failure (MTTF): 

Die durchschnittliche Zeit bis zum Eintreten des Ausfalls. Der MTTF-Wert wird bei nicht reparierbaren Systemen verwendet.