Die Zuverlässigkeit mikroelektronischer Systeme beginnt beim Entwurf
Archivmeldung vom 04.10.2008
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 04.10.2008 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch [email protected]Im gesamten Umfeld der Mikroelektronik existiert ein steigender Bedarf an innovativen Verfahren, um die Zuverlässigkeit dieser Systeme durch entsprechende Entwurfs-, Verifikations- und Testverfahren sicher zu stellen.
Die aktuellen Trends und Herausforderungen auf diesem Sektor standen im Fokus der internationalen GMM/GI/ITG-Expertentagung „Zuverlässigkeit und Entwurf“, zu der die VDE/VDI-Gesellschaft Mikrolektronik, Mikro- und Feinwerktechnik (GMM) nach Ingolstadt eingeladen hatte. Der über 100 Teilnehmer zählende Expertenkreis aus Wissenschaft und Industrie erstreckte sich von Vertretern der Designabteilungen namhafter Halbleiterhersteller über Zulieferer im Bereich Electronic Design Automation bis hin zu Vertretern aus der Automobilindustrie.
„Nobody is perfect“ – das gilt sinngemäß auch für mikroelektronische Systeme. Da kein Systementwurf alle möglichen Fehlerarten voraussehen kann und die hundertprozentige Fehlerfreiheit in der Mikroelektronik ein unerreichbarer Wunschtraum bleibt, muss der Hebel an anderer Stelle angesetzt werden. So zielen innovative Verfahren darauf ab, den Systemen eine Reihe von neuen Tugenden einzuverleiben. Integrierte Reparaturmechanismen und erhöhte Robustheit gegenüber Fehlern sind geeignete Strategien zur Verbesserung der Performance und Zuverlässigkeit.
Oftmals befinden sich mikroelektronische Komponenten in einer Umgebung, die für die empfindlichen Bauteile alles andere als ideal sind. Das trifft zum Beispiel für das Automobil zu, wo die integrierten Schaltkreise nicht selten harschen Umwelt- und Arbeitsbedingungen ausgesetzt sind. Stand bisher die Aufgabe der Halbleiterqualifikation darin, zu einem definierten Zeitpunkt die Qualität und die Zuverlässigkeit eines Halbleiterbausteins durch eine Prüfung nachzuweisen, ist jetzt ein Paradigmenwechsel angesagt.
„Robustness Validation“ lautet die Nullfehler-Offensive für Bauelemente
Dr. Andreas Preussger von der Infineon Technologies stellte diesen Wechsel anlässlich der Tagung in Gestalt des „Robustness Validation“-Konzepts vor, das von sämtlichen Beteiligten ein gründliches Umdenken erfordert und die Kernbotschaft enthält: „Erkenne die Grenzen Deines Halbleiterbauelements durch Belastung bis zum Ausfall und ziehe die daraus nötigen Konsequenzen.“ Eine Vorgehensweise, die einer sanften Revolution gleichkommt.
„Das Schlüsselelement einer erfolgreichen Robustheits-Validierung ist ein so genanntes Mission-Profile“, erläuterte Preussger. Dahinter verbirgt sich eine Sammlung aller relevanten Leistungsdaten eines Fahrzeugs, die bis auf das einzelne Bauteil herunter gebrochen werden und über die Zulieferer schließlich an die Halbleiterhersteller weitergeleitet werden. Die ermittelten Ergebnisse werden in Form einer laufend aktualisierten Knowledge Matrix ins Internet gestellt, um alle Beteiligten auf dem Laufenden zu halten.
Selbstkalibrierende Systeme für die Hochgeschwindigkeits-Datenübertragung
Auch die Datenübertragung mit hoher Geschwindigkeit ist für die Leistungsfähigkeit mikroelektronischer Systeme von zentraler Bedeutung. Auf diesen Aspekt verwies Andreas Gärtner von der Münchener Qimonda AG. Seinen Angaben zufolge stelle insbesondere die breitbandige Anbindung von DRAM Speichereinheiten an die an die Zentraleinheit eines Computersystems höchste Anforderungen an Signal-Intensität und Timing, damit eine zuverlässige Funktion des Systems sichergestellt sei. Im Rahmen seines Vortrags legte er anhand eines neuen Speicherstandards dar, wie sich Gesamt-Datentransferraten jenseits von 100 Gb/s in Standard-Computersysteme realisieren lassen. Als zentrale Voraussetzung für den zuverlässigen Betrieb derartiger Computer nannte er Methoden zur Selbstkalibrierung des Arbeitsspeichersystems, die sowohl beim Systemstart als auch im laufenden Betrieb ausgeführt werden.
Ionisierende Strahlen bereiten zunehmend Probleme
Im Bereich moderner CMOS-Technologien erweisen sich im Zuge der fortschreitenden Integration die durch ionisierende Strahlung verursachten Bitfehler als ernstzunehmendes Problem. „Kurzzeitstörungen, wie sie durch ionisierende Strahlen erzeugt werden, zeichnen sich innerhalb eines integrierten Bausteins dadurch aus, dass ein einmal gekipptes Bit in dem gekippten Zustand verbleibt, bis die Zelle neu beschrieben wird,“ konkretisierte Georg Georgakos von der Infineon Technologies AG. Ein besonderes Problem bereiteten die durch kosmische Strahlung verursachten Mehrfachfehler in unmittelbarer Nachbarschaft. Davon betroffen seien Strukturgrößen von weniger als 100 nm. In seinem Vortrag stellte Georgakos neue Entwurfsregeln für SRAM-Speicher (SRAM = Static Random Access Memory) vor, die weiterhin den Einsatz eingeführter Fehlerkorrekturverfahren gestatten. Diese im englischen als Error Correction Codes (EEC) bezeichneten Techniken sind in der Lage, die Auswirkungen solcher Störungen durch zusätzliche redundante Bits zu unterdrücken.
Weitere Highlights der Tagung waren Nachweisverfahren zur Ermittlung der Fehlertoleranz von Schaltkreisen sowie Modelle zur Zuverlässigkeitsanalyse von Hardware-Software-Systemen. So ist es beispielsweise Görschwin Fey und seinen Kollegen vom Fachbereich Mathematik und Informatik der Universität Bremen gelungen, ein formales Modell zur Ermittlung der Robustheit eines Schaltkreises gegenüber so genannten Einfachfehlern vorzustellen. Zu diesem Zweck wurden zwei Schaltkreise einem sequentiellen Äquivalenzvergleich unterzogen, bei dem in einem der Schaltkreise gezielt Fehler injiziert wurden. Michael A. Kochte und seine Kollegen vom Institut für Technische Informatik der Universität Stuttgart haben für die Zuverlässigkeitsbewertung von Hardware-Software-Systemen wiederum erfolgreich eine neue Methodik entwickelt, welche die grundlegenden Einflussgrößen auf die Zuverlässigkeit beinhaltet. Auf der Basis der vorliegenden Ergebnisse sieht Kochte gute Chancen, diese Methode künftig weiter auszubauen und die Untersuchungen auch auf statistische Methoden zur Zuverlässigkeitsbewertung sowie Maßnahmen zur Steigerung der Zuverlässigkeit auszubauen.
Zuverlässigkeit als interdisziplinäre Zielvorgabe
Auf den Punkt gebracht: Es geht heute längst nicht mehr darum, ein fertiges Endprodukt hinsichtlich der Zuverlässigkeit zu prüfen. Vielmehr muss die Zuverlässigkeit bereits auf der Ebene des Entwurfs in das Produkt implementiert werden. „Die zentrale Botschaft der diesjährigen ZuE-Konferenz lautet, dass wirklich jede Disziplin diese Zielvorgabe erkennt und annimmt“, kommentierte der wissenschaftliche Tagungsleiter Prof. Dr. Hans-Joachim Wunderlich vom Institut für Technische Informatik der TU Stuttgart. Diese Strategie werde inzwischen als Managementaufgabe betrachtet.
„Dahinter verbirgt sich auch die Bereitschaft, sich innerhalb der Wertschöpfungskette hochzuarbeiten und neue Pfründe zu schaffen“, erläuterte Tagungsleiter Dr. Sebastian Sattler, der bei Infineon als Manager Verantwortung für die Betreuung und Einwerbung von Förderprojekten hat. Bei der Fehleranalyse gehe es darum, das hoch integrierte System insgesamt zu betrachten. So gebe es noch einen hohen Prozentsatz nicht erkennbarer Fehler, die wahrscheinlich auf mangelhaft arbeitende Halbleiter zurückzuführen seien. Davon sei besonders der Bereich Automotive betroffen. Dazu gehörten auch neue Werkzeuge bis hin zu eigenen Design-Flows, die den heterogen zusammengesetzten Systemen gerecht würden. Auf der Tagung sei diese Herausforderung an alle Beteiligten als Kernbotschaft kommuniziert worden. Rolf Froböse