Abkürzungsverzeichnis KI, Software, IT, EDV und Programmierung

Industrie Computer und PC Komponenten von ICP iEi

Künstliche Intelligenz & Deep Learning

ICP Deutschland bietet seit 2018/2019 eine komplette Serie an Industrie PCs für die Realisierung von Deep Learning Anwendungen und Projekten im Umfeld der künstlichen Intelligenz an. Hauptaugenmerk der industriellen Hardware unter dem "IEI Brand" ist eine integrierte intelligente Deep Learning Software von Intel. Die Deep Learning Technologie basiert auf sogenannten neuronalen Netzwerken, die es Maschinen ermöglicht künstliches Wissen durch Training und Interferenz zu erlernen, zu verfeinern sowie neue Informationen zu erkennen und sinnvoll zu verarbeiten.

Künstliche Intelligenz und Deep Learning sind Bestandteil der fortschreitenden Digitalisierung, die Internetgiganten wie Facebook, Google und Co bereits jetzt einsetzen und auch zukünftig vor der Industrie, wo Mensch und Maschinen interagieren nicht Halt machen wird.

Ihre Vorteile

Die Vorteile von KI-Lösungen sind vielfältig:

✔ Vorinstalliertes Software Paket bestehend aus OpenVINO™ Toolkit, Intel® Media SDK, Ubuntu 16.04 Desktop LTS Betriebssystem und Intel® System Studio 2018

Vorinstalliertes Software Paket bestehend aus OpenVINO™ Toolkit, Intel® Media SDK, Ubuntu 16.04 Desktop LTS Betriebssystem und Intel® System Studio 2018 ✔ Optimal abgestimmte Hardware Leistung durch Intel® Core™ i5 /i7 Prozessoren und Intel® HD Graphics zur Analyse von hochauflösenden Bild- und Videodaten sowie Maschinen- und Sensordaten

Optimal abgestimmte Hardware Leistung durch Intel® Core™ i5 /i7 Prozessoren und Intel® HD Graphics zur Analyse von hochauflösenden Bild- und Videodaten sowie Maschinen- und Sensordaten ✔ Flexibel skalierbare und erweiterbare Systeme durch PCIe x4 basierte Beschleunigungskarten, die mit VPU und FPGA Technologie ausgestattet sind

Flexibel skalierbare und erweiterbare Systeme durch PCIe x4 basierte Beschleunigungskarten, die mit VPU und FPGA Technologie ausgestattet sind ✔ Schnelle vereinfachte Entwicklung und Bereitstellung von Software an der Edge durch praxisnahe Referenzbeispiele

Wie funktioniert Deep learning?

Deep learning (DL) ist eine maschinelle Lerntechnik, die auf tiefen neuronalen Netzwerken und wiederkehrenden neuronalen Netzwerkarchitekturen basiert. Diese künstlichen neuronalen Netze sind mit der Struktur des menschlichen Gehirns vergleichbar. Der zugrunde liegende Lernprozess wird durch die Verwendung von Darstellungen von Merkmalen direkt aus Daten wie Bild, Text und Ton realisiert. Diese Darstellungen sind das Ergebnis der Abstraktion von Eingangsdaten in mehreren Schichten und auf verschiedenen Ebenen, die ein übersichtliches Netzwerk bilden. Deep Learning wird beispielsweise in den Bereichen Computer und Machine Vision, Sprach- und Audioerkennung oder Social Network Filtering eingesetzt. In einigen Fällen kann die Leistung von Deep-Learning-Algorithmen genauer sein als das menschliche Urteilsvermögen.

Watson (Künstliche Intelligenz) – Wikipedia

Watson ist ein Computerprogramm aus dem Bereich der künstlichen Intelligenz. Es wurde von IBM entwickelt, um Antworten auf Fragen zu geben, die in digitaler Form in natürlicher Sprache eingegeben werden. Das nach Thomas J. Watson, einem der ersten Präsidenten von IBM, benannte Programm wurde als Teil des DeepQA-Forschungsprojektes entwickelt.[1]

Zur Demonstration seiner Leistungsfähigkeit konkurrierte das Programm in drei vom 14. bis 16. Februar 2011 ausgestrahlten Folgen der Quizsendung Jeopardy! mit zwei menschlichen Gegnern, die in der Show zuvor Rekordsummen gewonnen hatten. Die Partie, für die ein Preisgeld von einer Million Dollar ausgelobt war, wurde in den Medien daher mit dem Duell des Schachweltmeisters Garri Kasparow gegen den Computer Deep Blue verglichen.[2] Das System gewann das Spiel mit einem Endstand von $77.147 gegenüber den $24.000 bzw. $21.600 seiner menschlichen Konkurrenten.[3][4] Im Januar 2017 ersetzte eine japanische Versicherung mehr als 30 Mitarbeiter durch die Watson-Plattform.[5] Die KI soll Namen und Daten der Versicherten sowie deren medizinische Vorgeschichte prüfen und Verletzungen bewerten.

Inzwischen wird der Begriff Watson von IBM für unterschiedliche Lösungen verwendet, die künstliche Intelligenz in Data-, AI- und Businessanwendungen integrieren.[6]

Hintergrund und Zielsetzung [ Bearbeiten | Quelltext bearbeiten ]

Ziel des Projekts ist es letztlich, eine hochwertige Semantische Suchmaschine zu schaffen. Diese soll den Sinn einer in natürlicher Sprache gestellten Frage erfassen und in einer großen Datenbank, die ebenfalls Texte in natürlicher Sprache umfasst, innerhalb kurzer Zeit die relevanten Passagen und Fakten auffinden. Eine derartige Software könnte in vielen Bereichen, etwa der medizinischen Diagnostik, komplexe Entscheidungen unterstützen, insbesondere wenn diese unter Zeitdruck getroffen werden müssen.

Watson implementiert Algorithmen der Natürlichen Sprachverarbeitung und des Information Retrieval, aufbauend auf Methoden des Maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz.[7] Das System enthält Softwaremodule zur Erstellung von Hypothesen, ihrer Analyse und Bewertung. Es greift dabei auf eine Aussagensammlung und umfangreiche Textbestände zurück, ist jedoch nicht mit dem Internet verbunden. Anfragen an Watson werden bislang in Textform gestellt. Anders als aktuelle Systeme wie z. B. Wolfram Alpha benötigt es jedoch keine formale Abfragesprache. Seit Februar 2011 arbeitet IBM mit der Firma Nuance zusammen, einem führenden Hersteller von Software zur Spracherkennung. Die geplante Fähigkeit, auch gesprochene Fragen zu bearbeiten, soll den Einsatz einer spezialisierten Version Watsons im Gesundheitswesen erleichtern.[8]

IBM plant, auf Watson basierende Systeme im Laufe der nächsten Jahre kommerziell zu vermarkten. Der Leiter des zuständigen Forschungslabors geht davon aus, dass die Kosten des Gesamtsystems zunächst mehrere Millionen US-Dollar betragen könnten, da bereits die notwendige Hardware mindestens eine Million Dollar kostet.[9] Im Rahmen von Pilotstudien wurde das System bislang unter anderem dazu verwendet, Vorhersagen zu treffen, welche Arzneistoffe gegen bestimmte Krankheiten wirksam sein könnten; durch Integration zahlreicher Sensordaten und Informationen zu Umwelteinflüssen vorherzusagen, welche Bauteile komplexer Industriemaschinen Gefahr laufen vorzeitig auszufallen und daher gewartet werden sollten; aber auch dazu, innovative Kombinationen von Zutaten für schmackhafte Kochrezepte vorzuschlagen.[10] Zudem ist geplant zukünftig neuromorphe Chips, wie z. B. TrueNorth, zu integrieren um Eingaben in Form von natürlicher Sprache, Bildern und Videos, sowie beliebigen Sensoren zu ermöglichen.[11] Darüber hinaus soll Watson in Zukunft Rechtsanwälte bei der rechtlichen Recherche in juristischen Datenbanken entlasten.[12]

Auftritt bei Jeopardy! [ Bearbeiten | Quelltext bearbeiten ]

Jeopardy!, unterlag im Februar 2011 dem Computerprogramm Watson Ken Jennings , ein 74-maliger Sieger bei, unterlag im Februar 2011 dem Computerprogramm Watson

Die Quizshow Jeopardy! stellt Systeme zur automatischen Beantwortung natürlichsprachiger Fragen vor eine interessante Herausforderung, da die als Antworten gestellten Aufgaben meist bewusst mehrdeutig formuliert sind, häufig die Verknüpfung mehrerer Fakten erforderlich machen und die passende Frage innerhalb eines Zeitlimits von fünf Sekunden gefunden werden muss. Die Entwickler des System Watson setzten sich daher das Ziel, in diesem Spiel menschliche Kandidaten zu schlagen.

Bei ersten Testläufen im Jahr 2006 fand Watson nur für etwa 15 % von 500 Umschreibungen vorangegangener Jeopardy!-Sendungen die korrekte Frage. Die besten Kandidaten von Jeopardy! erreichen im Vergleich dazu etwa 95 % Genauigkeit. Im Laufe der nächsten Jahre wurde Watson mit einer Datenbank von ungefähr 100 Gigabyte an Texten ausgestattet, darunter Wörterbücher, Enzyklopädien, wie z. B. die gesamte Wikipedia, und anderes Referenzmaterial. Watson hat jedoch keine Verbindung zum Internet, ist also, wie seine menschlichen Gegenspieler, auf sich allein gestellt. Die Informationen werden unter anderem statistisch ausgewertet, um Sinnbezüge herzuleiten. Anstatt sich auf einen einzelnen Algorithmus zu stützen, nutzt Watson hunderte davon gleichzeitig, um über einen Pfad eine potentiell richtige Antwort zu finden. Je mehr Algorithmen unabhängig voneinander die gleiche Antwort erreichen, als desto wahrscheinlicher wird es angesehen, dass Watson die korrekte Lösung gefunden hat. Wenn das System für eine Aufgabe eine kleine Anzahl potentieller Lösungen erarbeitet hat, werden diese anhand einer Datenbank überprüft, um zu bewerten, welche davon als potentiell sinnvoll gelten können. Dazu werden z. B. Zeitangaben überprüft.

In einer Sequenz von 20 Übungsspielen nutzten die menschlichen Kandidaten die 6 bis 8 Sekunden Dauer während des Lesens des Ratebegriffes dazu, den Buzzer zu betätigen und die korrekte Antwort zu geben. Das auf diese Zeitspanne optimierte System Watson evaluiert eine Antwort und entscheidet, ob es genügend Sicherheit bezüglich des Ergebnisses gibt, um den Buzzer auszulösen.[9][13]

Seit Februar 2010 ist Watson in der Lage, im Rahmen regelgerechter Partien menschliche Jeopardy!-Kandidaten zu schlagen.[14] IBM stellte zunächst eine Übungssituation in einem Konferenzraum im Thomas J. Watson Research Center in Yorktown Heights, New York, nach, die die Situation bei Jeopardy nachahmt, und ließ Einzelpersonen, einschließlich früherer Jeopardy-Kandidaten, in Probespielen gegen Watson teilnehmen, mit Todd Alan Crain von The Onion als Quizmaster. Dem Computersystem, auf dem Watson ausgeführt wurde, wurden die Ratebegriffe (als Antwort auf eine Frage) elektronisch übermittelt und es war in der Lage, den Buzzer zu betätigen und mit einer elektronischen Stimme die Antworten im Jeopardy-eigenen Frageformat zu geben.[9][13]

Schließlich trat Watson bei Jeopardy in drei Sendungen, die zwischen dem 14. und 16. Februar 2011 ausgestrahlt wurden, gegen die früheren Champions Ken Jennings und Brad Rutter an, welche in der Show zuvor Rekordsummen gewonnen hatten. Nachdem das System Watson und der Kandidat Rutter nach der ersten Runde noch gleichauf lagen, ging Watson aus den beiden anderen als klarer Sieger hervor. Das Preisgeld von einer Million US-Dollar stellte IBM gemeinnützigen Zwecken zur Verfügung. Jennings und Rutter kündigten an, jeweils die Hälfte ihrer Preise von $300.000 bzw. $200.000 zu spenden.[3]

Die Softwareengine von Watson ist DeepQA. Diese läuft bei Watson auf dem Betriebssystem SUSE Linux Enterprise Server.[15]

Der Rechnerverbund besteht aus 90 Power 750 Servern mit 16 TB RAM. Jeder Server besitzt einen mit 3,5 GHz getakteten Power7 8-Kern Prozessor, wobei jeder Kern bis zu 4 Threads gleichzeitig ausführt.[16][17]

Geschrieben wurde DeepQA in verschiedenen Programmiersprachen; darunter Java, C++ und Prolog. DeepQA ist hierbei in Form von Annotatoren einer UIMA-Pipeline implementiert.[18][19]

Durch den Einsatz von UIMA Asynchronous Scaleout und Hadoop wird eine massive Parallelisierung ermöglicht. Spezielle UIMA Annotatoren ermöglichen dabei eine Abbildung auf Hadoop MapReduce-Schema um eine große Anzahl von Textdokumenten parallel durchsuchen zu können.

Funktionsweise von IBM Watson

Watson übernimmt eine Jeopardy!-Antwort (die Frage) des Moderators in elektronischer Form über eine Tastatur. Eine solche Jeopardy!-Antwort kann dabei sehr komplex sein und aus mehreren Sätzen, Rätseln und Wortwitzen bestehen.

Linguistischer Präprozessor [ Bearbeiten | Quelltext bearbeiten ]

Die Jeopardy!-Antwort wird von der DeepQA-Engine mit Hilfe eines Linguistischen-Präprozessors analysiert. Dabei wird die logische Struktur mit Hilfe eines Parsers des Satzes als Baum in Prolog abgebildet.

Ein Tokenizer, bestehend aus UIMA-Annotatoren für Pattern Matching, kümmert sich um die Abbildung auf Lexikalische Antworttypen (LAT). Dabei wird die Beziehung der Satzteile zueinander (die Grammatik) analysiert. Das betrifft insbesondere das Pronomen (auf das Watson sich mit der von ihm zu generierenden Frage beziehen muss), sowie Wörter, die angeben, welche Klasse von Antwort (z. B. Poet, Land, Epoche etc.) gesucht wird.[20]

Das Pronomen wird – sofern dieses nicht als solches erkennbar ist – dadurch gefunden, dass durch dessen Entfernung aus der Frage eine Aussage wird. Auf diesen Teil des Satzes legt DeepQA den Fokus bei der Kandidatenbewertung.[21]

Die Kandidatengenerierung nimmt den Prolog-Code des Linguistischen Präprozessors entgegen und leitet diese an verschiedene Suchmaschinen weiter. Hierbei wird etwa INDRI und Lucene für die Durchsuchung von unstrukturierten Dokumenten eingesetzt, welche in einem HDFS gespeichert sind. Zudem gibt es spezielle Engines die den LAT-Prolog-Code entgegennehmen und SPARQL-Abfragen auf semantischen Datenbanken (Triplestores) bzw. SQL-Abfragen auf relationalen Datenbanken durchführen, welche auf DB2 basieren.[22] Die Dokumente decken hierbei ein breiteres Wissensgebiet ab und sind schneller durchsuchbar, während die strukturierten und insbesondere semantischen Datenquellen eine höhere Genauigkeit bieten.[21]

Die Daten stammen aus verschiedenen Quellen, wie etwa DBpedia, Wordnet, Yago, Cyc, Freebase, Wikipedia, IMDB, World Book Encyclopedia, der Bibel sowie verschiedenen Taxonomien und Ontologien, Literarischen Werken und Artikeln von PR Newswire und New York Times. Zudem werden Webseiten analysiert und in Form von Textschnipseln in den Datenbanken von Watson gespeichert.[21]

DeepQA generiert dabei zwischen 100 und 250 Suchergebnisse. Diese Ergebnisse (Kandidaten) stellen Hypothesen für die mögliche Antwort dar.[21]

In Jeopardy! hat Watson keinen Zugriff auf das Internet, sondern nur auf die Daten in den internen Datenbanken. Prinzipiell hat DeepQA für zukünftige Anwendungen jedoch auch die Möglichkeit, weitere Informationen aus dem Internet zu beziehen und mit Hilfe von Webservices auch Echtzeitdaten zu berücksichtigen.

Die wahrscheinlichsten Ergebnisse der Suche werden genauer analysiert. Hierzu besitzt DeepQA mehrere tausend Softwareagenten die jeweils eine ganz spezielle Analyse parallel durchführen. Hierzu gehören vor allem Agenten für die Analyse von zeitlichen (temporalen) und räumlichen (spatiellen) Zusammenhängen, Taxonomien, einfachen Berechnungen für Rechenrätsel, Bewertung der Akustik für Wörter die ähnlich klingen, Scrabble-Bewertung für Wörter deren Buchstaben vertauscht wurden, Agenten, die Suchergebnisse einer genaueren semantischen Analyse durchführen, sowie viele andere mehr.

Diese Analyse umfasst oft ein sehr breites Wissensspektrum, wobei verschiedene Kandidaten und Wissensdomänen von den jeweiligen Agenten voneinander unabhängig und massiv parallel analysiert werden. Da jedes Suchergebnis von bis zu tausend Agenten analysiert wird, multipliziert sich die Anzahl der gleichzeitig analysierten Evidenzfragmente. Aus den 100 bis 250 Hypothesen werden somit bis zu 100.000 Evidenzfragmente die in unabhängigen Threads analysiert werden. Ein Softwarefilter eliminiert alle Ergebnisse von Agenten, die keinen Beweis für die Richtigkeit eines Suchergebnisses erbracht haben.

„Olli“ auf der CeBIT 2017

Ende August 2016 veröffentlichte 20th Century Fox einen Trailer zum Film Das Morgan Projekt, der von Watson gefertigt wurde. Es handelt sich dabei um den ersten Trailer der Filmgeschichte, der durch einen Algorithmus entstanden ist.[23] Der IBM-Manager John R. Smith erklärte in einem Blogeintrag, Watson habe insgesamt 100 Trailer von Horrorfilmen analysiert, um den rund 60 Sekunden langen Trailer zu fertigen. Watson unterteilte diese in Segmente, und nach einer visuellen Analyse, einer Audio-Analyse und einer Analyse der Szenen-Zusammensetzung, analysierte die künstliche Intelligenz den Film Morgan und filterte die passenden Stellen heraus. Letztlich entschied sich das System für zehn Sequenzen, aus denen dann ein Filmteam den Trailer zusammensetzte.[24]

Auf der CeBIT 2017 präsentierte IBM einen autonomen Bus namens Olli, der durch Watson gesteuert wird. Watson und Olli sind vernetzt, die Rechenleistung kommt aus IBMs Datenzentrum in Frankfurt.[25][26][27]

In Form von unterschiedlichen Anwendungen steht Watson mittlerweile auch Endnutzern zur Verfügung. Ein Beispiel hierfür ist Cognos Analytics, eine Software für intelligente Datenanalyse und Visualisierung, oder Watson Assistant, mit dem intelligente Chatbots und digitale Assistenten erstellt werden können.[28] Zahlreiche weitere Watson Services können teilweise sogar kostenlos über die IBM Cloud in Anspruch genommen werden und reichen von Bild- und Spracherkennung bis hin zu Machine Learning Modellen.[29]

Im Bereich der Onkologie berät Watson for Oncology Krebsärzte in 230 Krankenhäusern weltweit bei der Suche nach der jeweils besten Therapie (Stand Mitte 2018). Allerdings kritisierte 2017 der Leiter der Krebsabteilung von Kopenhagens Reichskrankenhaus das System scharf und stoppte an seiner Klinik das Experiment.[30]

Filmische Dokumentationen [ Bearbeiten | Quelltext bearbeiten ]

Abkürzungsverzeichnis KI, Software, IT, EDV und Programmierung

Die wichtigsten Definitionen rund um KI, Software, IT, EDV und Programmierung

Was ist eine Blockchain, und bedeutet IP, DNN oder ERP? Wir erklären Begriffe aus den Bereichen KI, Software, IT, EDV und Programmierung – von AES und ECC über KI, PQC und TLS bis jenseits von VM und XML.

Die folgende Zusammenstellung enthält kurze Erklärungen und Definitionen für wichtige Abkürzungen (zum Beispiel KI, DNN, ERP oder IP) und Begriffe wie Blockchain – und zwar aus den Themengebieten KI, Software, IT, EDV und Programmierung. Verknüpfungen zu themenbezogenen Fachbeiträgen wie auch zu weiterführenden Webseiten liefern dabei viele weitere Details und informieren über den Stand der Technik.

AES, Advanced Encryption Standard

Der vom vom National Institute of Standards and Technology (NIST) weiterentwickelten Verschlüsselungsstandard AES aus dem Jahr 2000 ist eine Blockchiffre und Nachfolger für DES (Data Encryption Standard). Nach seinen Entwicklern wird AES auch Rijndael-Algorithmus genannt. Beim diesem symmetrischen Verschlüsselungsverfahren sind die Schlüssel zum Ver- und Entschlüsseln identisch. Der Algorithmus ist frei verfügbar und darf ohne Lizenzgebühren eingesetzt sowie in Soft- und Hardware implementiert werden. AES-192 und AES-256 sind in den USA für staatliche Dokumente mit höchster Geheimhaltungsstufe zugelassen. Kryptographische Verfahren spielen auch beim Produkt und Know-How-Schutz in der intelligenten Produktion eine wichtige Rolle. Weitere Kryptografiestandards sind unter anderem DES und FAME.

AI, Artificial Intelligence

Künstliche Intelligenz bei Maschinen, siehe KI

ALM, Application Lifecycle Management

Application Lifecycle Management

APT, Advanced Persistent Threats

Hochentwickelte Sicherheitsbedrohungen; Cyber-Bedrohung

ASK, Amplitude-Shift Keying

Die Amplitudenumtastung (ASK) zählt zu den digiaten Modulationsverfahren in der Nachrichtentechnik. Dabei wird die Amplitude eines Trägers sprunghaft verändert, um verschiedene Werte zu übertragen. Die einfachste Form der Amplitudentastung ist das On-Off Keying (OOK), bei dem der Träger an- und ausgeschaltet wird, um eine 1 oder 0 zu übertragen. Unterschiedlich hohe Amplitudensprünge erlauben es pro Symbolschritt mehrere Bits zu kodieren (vier unterschiedliche Amplituden repräsentieren zwei Bits: 00, 01, 10 und 11). Höhere Datenraten nutzen mehrere Träger parallel.

Bare-Metal-Server

Ein Bare-Metal-Server ist ein eigenständiger Computerserver für einen Einzelkunden. Der Begriff unterscheidet sich von Formen der Virtualisierung und des Cloud-Hosting.Bare-Metal-Server haben einen einzigen Kunden und werden nicht von mehreren Kunden gemeinsam genutzt. Jeder zur Vermietung angebotene Bare-Metal-Server bildet einen eigenständig funktionierenden logischen Server auf einer eigenständigen physischen Hardware, im Gegensatz zu einem virtuellen Server, der auf mehrfach benutzter Hardware ausgeführt wird. Beachten Sie im Zusammenhang mit Virtualisierungsarchitektur auch den Begriff Bare-Metal-Virtualization.

Bare-Metal-Virtualization

Unter Bare-Metal-Virtualization versteht man eine Virtualisierungsarchitektur mit direktem Hardware-Zugriff. Neben der Host-Virtualisierung ist die Bare-Metal-Variante die zweit häufigste Virtualisierungsarchitektur. Hier kommuniziert die VMM-Software (Virtual Machine Monitor, Hypervisor) direkt mit der Hardware ohne dazwischenliegendes Host-Betriebssystem. So kann der Hypervisor ohne Umwege mit I/O-Geräten kommunizieren. Im Gegensatz zur Host-Lösung ist der Installationsaufwand beim Bare-Metal-Ansatz deutlich höher, denn der Hypervisor muss grundsätzlich über die Treiber der Geräte und über die notwendigen Treiber der unterschiedlichen Hardwareplattformen verfügen. Bare Metal unterstützt insbesondere Echtzeitbetriebssysteme, welche parallel zu einem universellen Betriebssystem ausgeführt werden können. Ein Fachbeitrag zur Virtualisierung von eingebetteten Industriesystemen erörtert verschiedene Hardware-Virtualisierungsmethoden für die Prozessautomatisierung. Beachten Sie in diesem Zusammenhang auch den Begriff Bare-Metal-Server.

BER, Bit Error Rate

Deutsche Bezeichnungen für Bit Error Rate (BER) sind Bitfehlerrate (BFR) oder Bitfehlerhäufigkeit (BFH). Es ist in der Nachrichtentechnik ein Maß für die Qualität der digitalen Signalübertragung. Einflussfaktoren sind Rauschen, Interferenzen, Signalverzerrungen oder Bit-Synchronisationsfehler. Einheit ist „Anzahl der Fehler pro Zeiteinheit“.

Blockchain

Im Prinzip ist eine Blockchain eine blockweise Verkettung von Transaktions-Daten. Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, Blöcke genannt, die mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Als dezentrale Datenbank ermöglicht es dieses Konzept, Transaktionen schnell abzuwickeln und besonders fälschungssicher zu speichern. Die blockweise gespeicherten Daten sind chronologisch miteinander verkettet und bauen inhaltlich aufeinander auf. Im Falle einer Manipulation einzelner Daten im Nachhinein, ist dies mit einfachen Mitteln anhand der nachfolgenden Blöcke feststellbar. Die Blockchain kann dezentral an vielen Orten gleichzeitig abgelegt sein, was sie vor Manipulation schützt, denn mehrere der anderen Teilnehmer (Blockchain-Node) können neue hinzugefügte Blöcke überprüfen.

BOL, Beginning of Life

Beginn der (Produkt-)Lebensdauer. Ein Begriff aus der Batterietechnik.

BPSK, Binary Phase-Shift Keying

Modulationsverfahren in der Nachrichtentechnik --> siehe PSK.

BSI, Bundesamt für Sicherheit in der Informationstechnik

Das BSI wurde am 1. Januar 1991 gegründet und gehört zum Geschäftsbereich des Bundesministeriums des Innern. Die Behörde mit Hauptsitz in Bonn ist eine unabhängige und neutrale Stelle für Fragen zur IT-Sicherheit in der Informationsgesellschaft. Derzeit sind dort über 800 Informatiker, Physiker, Mathematiker und andere Mitarbeiter beschäftigt.

BSIMM, Building Security In Maturity Model

Bei BSIMMhandelt es sich um eine Initiative rund um Software-Security in der realen Welt.

BV, Bildverarbeitung

obwohl es sich um eine deutsche Abkürzung handelt, ist BV im Deutschen recht gängig, weil die Abkürzung des englischen Pendants, image processing, bereits mehrfach belegt ist (IP: Internet Protocol, Intellectual Property)

CA, Conditional Access

In der Informationssicherheit gibt diese Organisation digitale Zertifikate heraus. Ein solches dient dazu, einen bestimmten öffentlichen Schlüssel einer Person oder Organisation zuzuordnen, was die Zertifizierungsstelle beglaubigt, indem sie den Schlüssel mit ihrer eigenen digitalen Unterschrift versieht. Wie das im vernetzten Automobil funktioniert, beschreibt dieser Fachbeitrag.

CA, Certificate Authority

Bedingter Zugang (bei Pay-TV und ähnlichen Inhalten)

CbM, Condition-based Monitoring

Die zustandsbasierte Überwachung (Condition-based Monitoring, CbM) sorgt durch Auswertung des Betriebszustands der betreffenden Maschine dafür, dass die Instandhaltungskosten gegenüber einem geplanten Instandhaltungssystem zurückgehen, das auf einem festgelegten und oftmals recht konservativen Zeitplan basiert. Weitere Details zur praktischen Umsetzung von CbM finden Sie hier

CC, Common Criteria

Die hier verlinkte Wikipedia-Seite definiert CCwunderbar kompakt: Bei den CC handelt es sich um allgemeine Kriterien für die Bewertung der Sicherheit von Informationstechnologie; CC sind ein internationaler Standard zur Prüfung und Bewertung der Sicherheitseigenschaften von IT-Produkten.

CERT, Computer Emergency Response Team

Der Software-Codierungsstandard für die Programmiersprache C wurde vom CERT-Koordinierungszentrum am Software Engineering Institute (SEI) entwickelt, um die Zuverlässigkeit und Sicherheit von Softwaresystemen zu verbessern. Die Richtlinien für sichere Codierung sind mit mehreren anderen Standards verknüpft, einschließlich CWE-Einträgen (Common Weakness Enumeration) und MISRA. CERT oder auch CSIRT (Computer Security Incident Response Team) ist eine Gruppe von EDV-Sicherheitsfachleuten, die bei der Lösung von konkreten IT-Sicherheitsvorfällen (neue Sicherheitslücken in Anwendungen oder Betriebssystemen, neuartige Virenverbreitung, Spam oder Cyber-Attacken) als Koordinator mitwirkt oder sich ganz allgemein mit Computersicherheit befasst, Warnungen vor Sicherheitslücken herausgibt und Lösungsansätze anbietet. Richtlinen bezüglich Zuverlässigkeit und Sicherheit kommen auch im Bereich Medizin-Software zum tragen, wie dieser Beitrag zeigt.

CFD, Computational Fluid Dynamics

Software-Lösung zur Strömungssimulation

CFM, Control Flow Monitoring

Steuerungsfluss-Überwachung (im Bereich modellbasierte Entwicklung)

CG, Carrier Grade

Carrier Grade (etwa: Betreiberniveau) ist eine informelle Angabe für die Ausfallsicherheit eines Systems. Sie wird insbesondere im Bereich von Netzwerkkomponenten für Computer- und Telekommunikationsnetze verwendet und bedeutet, dass das Gerät im Jahr durchschnittlich weniger als 5 Minuten ausfällt. Das entspricht einer Verfügbarkeit von 99,999 % der Gesamtzeit, was häufig auch als fünf Neunen bezeichnet wird.

CISPA, Center for IT Security, Privacy and Accountability

Das CISPA ging aus dem seit 2011 bestehenden BMBF-Kompetenzzentrum Center for IT Security, Privacy and Accountability hervor und fungiert jetzt als Helmholtz-Zentrum für Informationssicherheit (unter der Abkürzung CISPA) als deutsche Großforschungseinrichtung des Bundes im Rahmen der Helmholtz-Gemeinscha

CMMI, Capability Maturity Model Integration

eine systematische Sammlung von Referenzmodellen

CNN, Convolutional Neural Network

Eine Realisierungsform des neuronalen Netzwerks, die bei Künstlicher Intelligenz für maschinelles Lernen zur Anwendung kommt. Hintergrundinfos zum Einsatz von CNNsim Auto liefern die Nvidia-Keynotein Ludwigsburg 2017 sowie Wikipedia.

CRC, Cyclic Redundancy Check

Das CRC (zyklische Redundanzprüfung) genannte Prüfverfahren fügt jedem Datenpaket vor der Speicherung oder Übertragung zusätzliche Redundanz in Form eines CRC-Werts zu, um Übertragungsfehler erkennen zu können. Ein Empfänger wendet zur Überprüfung der Daten dasselbe Berechnungsverfahren auf den Datenblock einschließlich des angefügten CRC-Werts an. Ist das Ergebnis null, gilt der Datenblock als unverfälscht. Im Idealfall kann das Verfahren sogar die empfangenen Daten selbständig korrigieren, um eine erneute Übertragung zu vermeiden.

CSMS, Cyber Security Management System

Nähere Infos finden Sie hier.

CWE, Common Weakness Enumeration

Die CWE richtet sich an (Software-)Entwickler und Sicherheitsfachleute und ist eine formale Sammlung für Arten von Softwareschwächen. Sie dient als gemeinsame Sprache zur Beschreibung von Software-Sicherheitslücken bezüglich Architektur, Design oder Code; ist ein Maßstab für Software-Sicherheitstools und stellt gemeinsame Basisstandards für die Ermittlung, Abschwächung und Vorbeugung von Schwachstellen bereit.

DES, Data Encryption Standard

Ein Kryptografiestandard. Siehe auch AESund FAME

DevOps, Development – IT Operations

DevOpszielt darauf ab, das Zusammenspiel zwischen Software-Entwicklung und der IT-Infrastruktur zu verbessern.

DFKI, Deutsches Forschungszentrum für Künstliche Intelligenz

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ist eine öffentlich-private Partnerschaft mit Großunternehmen, Mittelständlern, den Ländern Rheinland-Pfalz, Bremen und Saarland als Gesellschaftern und dem deutschen Bundesministerium für Bildung und Forschung als Projektförderer

DGN, Deep Grid Net

DGN versteht als Deep-Learning-System den Kontext , in dem sich ein autonomes Fahrzeug bewegt. Der Deep-Grid-Net-Algorithmus prognostiziert diesen Kontext, indem er lokale Occupancy Grids (OG) analysiert, die aus fusionierten sensorischen Rohdaten aufgebaut sind. Die Firma Elektrobit prägte den Begriff DGN

DNN, Deep Neural Network

In der technischen Welt kommen komplexe neuronale Netzwerke in Maschinen und Steuerungsprozessen mit künstlicher Intelligenz (KI, AI) zum Einsatz oder auch zur Bewältigung immenser Datenfluten in der Datenverarbeitung. Nach einer Anlern- oder Trainingsphase können Inferenzmaschinen Datenkontexte verstehen und Prognosen ableiten. Die leistungsstarke Hardware für DNN verwendet GPU- und GSP-Architekturen.

DOE, Design of Experiments

eine Modellierungs-Methode im Rahmen der modellbasierten Applikation

DoIP, Diagnostics over IP

Diagnose per IP-Verbindung

DPA, Differntial Power Analysis

Mit dieser Kryptoanalyse lässt sich die Verschlüsselung von Smartcards oder anderen Verschlüsselungskomponenten ermitteln. Das DPA-Verfahren greift den Spannungspegel an verschiedenen Pins ab, um diese einer statistischen Analyse zu unterziehen. Aus dem Rechenaufwand über die Zeit lässt sich somit das Verschlüsselungsverfahren und der Geheimschlüssel ableiten. Die DPA ist eine Seitenkanalattacke.

DPM, Defects Per Million oder Defects Per Million Opportunities (DPMO)

Im Gegensatz zur Angabe von Fehler pro Einheit (Fehler/ppm) wird bei DPMO die Anzahl aller möglichen Fehler pro Einheit miteinbezogen um verschieden komplexe Einheiten besser vergleichbar zu machen.

DRM, Digital Rights Management

Digitales Rechte-Management

DTLS, Datagram Transport Layer Security

Ein auf TLS basierendes Verschlüsselungsprotokoll. Details zu DTLS finden Sie hier.

EAL, Evaluation Assurance Level

EAL definiert im Rahmen der Common Criteria (CC) sieben Ebenen der Vertrauenswürdigkeit von EAL 1 bis EAL 7

ECC, Elliptic Curve Cryptography

Das Datenverschlüsselungsverfahren (Elliptische-Kurven-Kryptografie) ist ein asymmetrisches Verschlüsselungsverfahren. Basis für den 1985 entwickelten Verschlüsselungsalgorithmus sind elliptische Kurven. Das Verfahren ist nur sicher, wenn diskrete Logarithmen in der Gruppe der Punkte der elliptischen Kurve nicht effizient zu berechnen sind.

ECDH, Elliptic Curve Diffie Hellman

Das Datenverschlüsselungsverfahren ECDH setzt Verschlüsselungsalgorithmus des Diffie-Hellman-Verfahrens (DH) auf, das auf der Potenzierung der zu verschlüsselnden Daten mit großen Exponenten basiert. Das Verfahren, dessen Grundlage ECC bildet, bietet hohe Sicherheit bei relativ kurzen Schlüssellängen. Beispielsweise verwendet eine besonders sicherheitskritische Bluetooth-Kommunikation diese Verschlüssellungsmethode.

ECDSA, Elliptic Curve Digital Signature Algorithm

Eine Variante des DSA-Verfahrens im Rahmen der Kryptographie ist das ECSDA-Verfahren.

ERP, Enterprise Resource Planning

In der Geschäftsressourcenplanung kommen ERP-Systeme als betriebswirtschaftliche Softwarelösungen zur Steuerung von Geschäftsprozessen zum Einsatz. Mit ihnen werden betriebliche Ressourcen wie Kapital, Personal oder Produktionsmittel bestmöglich gesteuert und verwaltet, was einen effizienten betrieblichen Wertschöpfungsprozess und eine stetig optimierte Steuerung der betrieblichen Abläufe gewährleisten soll. Kernfunktion von ERP ist in produzierenden Unternehmen die Materialbedarfsplanung, damit alle für die Produktherstellung erforderlichen Materialien zeitlich, örtlich und in der richtigen Menge verfügbar si

EXI, Efficient XML-Interchange

XML-Interchange ist ein vom World Wide Web Consortium (W3C) vorgeschlagenes Format für die binäre Repräsentation von XML-Information Sets (die Strukturierung eines XML-Dokumentes). Im Vergleich zu textbasierten XML-Dokumenten können Dokumente im EXI-Format schneller verarbeitet werden und benötigen weniger Bandbreite beim Transfer über ein Netzwerk. Neben EXI gibt es weitere Ansätze eine binäre Repräsentation für XML zu etablieren, z.B. Binary XML.

FAME, Fast Attribute-based Message Encryption

Ein Kryptografiestandard, der direkt mit AESund DESkonkurriert.

Framework, Grundstruktur, Rahmenwerk

Im Software-Engineering ist ein Framework ist kein eigenständiges Programm, sondern ein Rahmengerüst, welches den Programmierer bei seiner Anwendungsprogrammierung unterstützt. Das Framework wird vorwiegend in der objektorientierten Programmierung eingesetzt und umfasst Bibliotheken, Schnittstellen, Laufzeitumgebungen und diverse Tools. Es beeinflusst die Entstehung der Software-Architektur und stellt die Designgrundstruktur für Basisbausteine in Form von abstrakten und konkreten Klassen zur Verfügung.

FTA, Failure Tree Analysis

Failure Tree Analysis, auch Fehlerbaumanalyse genannt, ist eine Methode der Zuverlässigkeitsanalyse von technischen Anlagen und Systemen.

GAN, Generative Adversarial Networks

GANist eine besondere Algorithmik für unüberwachtes Lernen.

GCC, Global Chassis Control, globale Fahrwerksregelung

ein von Conti initiierter Begriff

GDB, GNU Debugger

Offener Debugger, der verschiedene Programmiersprachen unterstützt wie beispielsweise C, C++, Fortran oder Java.

GLPL, GNU Lesser General Public License

spezielle Variante von GPL

GNU, ein offenes Software-Projekt

GNU ist ein offenes, Linux-ähnliches Betriebssystem. Als Freie Software können die Nutzer das Programm beliebig verwenden, verbreiten, verändern und untersuchen dürfen. Siehe auch GPL, GNU General Public License.

GPL, GNU General Public Licence

Lizenzierungsform für frei zugängliche Software. Details zu GNU General Public Licence finden Sie hier.

GUI, Graphical User Interface

Grafische Schnittstelle zum Anwender/Nutzer

HDCP, High-bandwidth Digital Content Protection

HDCP ist ein von Intel im Jahre 2003 entwickeltes kryptografisches Verschlüsselungssystem, das für die Schnittstellen DVI, HDMI und DisplayPort zur geschützten Übertragung von Audio- und Video-Daten vorgesehen ist. HDCP soll in Europa Standard für HDTV werden und kommt bei Blu-ray-Disc wie auch HD-DVD zum Einsatz. Das Verschlüsselungsverfahren soll das Abgreifen des Video- und Audiomaterials innerhalb der Verbindung zwischen Sender und Empfänger verhindern. Jedes HDCP-konforme Gerät hat laut Spezifikation 40 Schlüssel mit jeweils 56 Bit Länge gespeichert.

ICA, Independent Component Analysis; Unabhängigkeitsanalyse

Methode aus der multivariaten Statistik zur Berechnung unabhängiger Komponenten in einer Mischung statistisch unabhängiger Zufallsvariablen

ICU, Intelligent Cryptographic Unit

Intelligente Kryptographie-Einheit nennt Renesas den Krypto-Coprozessor in den MCUs.

IDPS, Intrusion Detection and Prevention System

Security-System zur Erkennung und Verhinderung von Eindring(versuch)en in ein System.

IDS, Intrusion Detection System

Das Angrifferkennungssystem detektiert Eindringlinge in Computersystemen oder Rechnernetzen. IDS kann eine Firewall ergänzen oder auch direkt auf dem zu überwachenden Computer laufen und so die Sicherheit von Netzwerken und Systemen erhöhen.

IP, Intellectual Property

Der Begriff geistiges Eigentum taucht in der digitalen und elektronischen Welt häufig im Zusammenhang mit Software- und Hardware-Entwicklung auf.

IP, Internet Protocol

Das in Computernetzen weit verbreitete Netzwerkprotokoll stellt die Grundlage des Internets dar. Es ist die Implementierung der Internetschicht des TCP/IP-Modells und entspricht der Vermittlungsschicht (Network Layer) des OSI-Modells. IP ist ein verbindungsloses Protokoll, das heißt bei den Kommunikationspartnern wird kein Zustand etabliert. Mittels IP-Adresse und Subnetzmaske (subnet mask) für IPv4, beziehungsweise Präfixlänge bei IPv6, können Computer innerhalb eines Netzwerkes in logische Einheiten, die Subnetze, gruppiert werden.

IPC, Industrial Personal Computer

Typische Bereiche für Industrie-PCs sind Prozessvisualisierung, Robotik, Industrieautomation, Test- und Prüfstände für die Industrie oder Sicherheitstechnik sowie die Qualitätssicherung. Ein IPC ist gegenüber dem Büro-PC robuster gegenüber Umwelteinflüssen wie auch elektromagnetischen Störungen und ist insgesamt weitgehend ausfallsicher ausgelegt. Konventionelle PCs haben infolge der Massenproduktion einen hohen Standardisierungsgrad – sowohl hinsichtlich Hardware als auch Software. Aufgrund der hohen Flexibilität lässt sich ein PC für die Bedienung, Programmierung, Visualisierung, Langzeit-Archivierung und Simulation von Prozessen einsetzen und darüber hinaus mit herkömmlichen industriellen Steuerungen oder SPS kombinieren.

ITE, Integrated Test Design Environment

Die Integrierte Umgebung für Test-Design und Test-Ausführung ist ein Produkt von Vector Informatik.

JIT, Just-in-Time

wird in der Fertigung verwendet (Anlieferung erst zu dem Zeitpunkt, an dem ein Teil benötigt wird), sowie in der Software-Entwicklung (JIT-Compiler übersetzen Code erst zur Laufzeit eines Programms)

JSON, Javascript Object Notation

JSON ist ein Datenformat in Textform für den Datenaustausch

KI, Künstliche Intelligenz

Künstliche Intelligenz (KI), im Englischen auch artificial intelligence (AI), ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch wird er in Forschung und Entwicklung verwendet. Hinsichtlich der bereits existierenden und der als Potenziale sich abzeichnenden Anwendungsbereiche gehört künstliche Intelligenz zu den wegweisenden Antriebskräften der Digitalen Revolution. Ein Fachbeitrag zum Thema Graph-Streaming-Processing bricht mit den traditionellen Methoden zur Entwicklung künstlicher Intelligenz (KI) und maschinellen Lernens (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und diagrammbasierten Task-Architektur vor.

LSB, Least Significant Bit

Das Bit, das die niedrigste Zweierpotenz repräsentiert, also in der Praxis unserer Schreibweise die ganz rechte (letzte) Stelle einer dualen Zahl.

MIL, Model-in-the-Loop

Test im Rahmen der modellbasierten Softwareentwicklung (Überbegriff: XiL)

MILS, Multiple Independent Levels of Security

siehe EURO-MILS

ML, Maschinelles Lernen

Der Oberbegriff steht für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Es lernt nicht die Beispiele auswendig, sondern erkennt Muster wie auch Gesetzmäßigkeiten in den Lerndaten und kann unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung; englisch overfitting). Aus dem weiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnose­verfahren, Erkennung von Kreditkartenbetrug, Aktienmarkt­analysen, Klassifikation von Nukleotidsequenzen, Sprach- und Texterkennung sowie autonome Systeme. Ein Fachbeitrag zum Thema Graph-Streaming-Processing bricht mit den traditionellen Methoden zur Entwicklung künstlicher Intelligenz (KI) und maschinellen Lernens (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und daigrammbasierten Task-Architektur vor. Für die Software-Entwicklung im Bereich KI/ML sind vielfältige Framworks verfügbar: TensorFlow, CAFFE, PyTorch or TORCH, Apache Spark, Apache Singa, Microsoft CNTK, Amazon Machine Learning, Apache Mahout, Scikit-Learn, Accord.NET .

MTBF, Mean Time Between Failures

Mittlere Lebensdauer/Betriebsdauer zwischen Ausfällen von Bauelementen, Systemen und anderen Komponenten.

NLP, Natural Language Processing

Maschinelle Sprachverarbeitung im Rahmen der Computerlinguistik. NLP-Systeme dienen dazu, normale Sätze zu verstehen und zum Beispiel eine Aktion auszuführen: „System, schalte das Licht im Wohnzimmer ein!“

NLU, Natural Language Understanding

Wichtig für NLP ist natürlichsprachliches Sprachverständnis auch bei nicht perfekter Aussprache.

NN, Neural Network

Neuronales Netzwerk (im Rahmen der KI)

OOP, Objektorientierte Programmierung

OOP ist eine Methode zur Modularisierung von Programmen, die sich stark von der klassischen prozeduralen Programmierung unterscheidet. Ziel ist es, OOP-Software leichter zu warten und zu erweitern als prozedurale. Die strenge Modularisierung Unit-Tests vereinfacht Wiederverwendung von Softwareteilen und folgt dem Programmierparadigma der imperativen Programmierref="https://www.itwissen.info/Objektorientierte-Programmierung-object-oriented-programming-OOP.html" target="_blank">Objektorientierte Programmierung

unterteilt Programme in Einheiten, die Objekte genannt werden. Jedes Objekt besitzt einen Zustand, der durch dessen Eigenschaften (Objektattribute) beschrieben wird. Nur die im Objekt selbst vorhandenen Funktionen (Methoden genannt), können dessen Daten manipulieren und so den Zustand verändern. Objekte können anderen Objekten Botschaften senden (indem sie deren Methoden aufrufen) und sie damit auffordern, ihren Zustand zu ändern. Letztendlich bleibt es aber dem Objekt selbst überlassen, ob es der Aufforderung nachkommt. Somit befindet sich das Objekt immer in einem wohldefinierten, selbstkontrollierten Zustand.

OpenCL, Open Computing Language

Die Spezifikation wurde 2008 von der Khronos Group erstellt und erleichtert das Programmieren von hochgradig parallel arbeitenden Prozessoren (CPU), Grafikprozessoreinheiten (GPU) sowie Prozess-/Daten-Beschleunigern. OpenCL hilft große Mengen unabhängiger Daten mit einer hohen Rechenleistung effizient zu verarbeiten. In diesem Zusammenhang mit GPGPU (General Purpose Computation on Graphics Processing Unit) können Hochleistungs-GPUs mit unzähligen Prozessorkernen über die schlichte Aufgabe der Bidsynthese (Rendering) hinaus neue Hochleistungsberechnungen bewältigen, beispielsweise in neuronalen Netzen für KI (künstliche Intelligenz) und ML (Machine-Learning).

OSLC, Open Services for Lifecycle Collaboration

Offener Service für die Lebenszyklus-Zusammenarbeit ist eine technische Initiative, welche die Integration von Werkzeugen zur Software-Entwicklung spezifiziert. Es geht darum, die Arbeit von Werkzeuganbietern und -nutzern durch Standardisierung zu vereinfachen. Die OSLC-Initiative ist seit Juni 2013 Mitglied von OASIS, eine Organisation zur Weiterentwicklung von E-Business- und Webservice-Standards. Weitere Themengebiete von OSLC sind Application Lifecycle Management (ALM), Product-Lifecycle-Management (PLM), Betrieb von IT-Systemen und andere.

OSS, Open-Source Software

Software, deren Quelltext öffentlich und von Dritten eingesehen, geändert und genutzt werden kann. Open-Source-Software kann meistens kostenlos genutzt werden. Software kann sowohl von Einzelpersonen aus altruistischen Motiven zu Open-Source-Software gemacht werden wie auch von Organisationen oder Unternehmen, um Entwicklungskosten zu teilen oder Marktanteile zu gewinnen.

OT, Operational Technology

Bei OT handelt es sich um ein aus Hardware und Software bestehendes Paket, das einerseits Veränderungen erkennt und andererseits auch Veränderungen initiiert. Dies geschieht durch direkte Überwachung und/oder Steuerung von Prozessen, physikalischen Einheiten und Vorkommnissen im Gesamtsys

PCA, Principal Component Analysis; Hauptkomponentenanalyse

Verfahren aus der multivariaten Statistik zur Strukturierung, Vereinfachung und Veranschaulichung umfangreicher Datensätze.

PiP, Picture in Picture

Bild-im-Bild Darstellung

PKI, Public Key Infrastructure

System, um kryptografische Zertifikate auszustellen

PMHF, Probabilistic Metric for Random Hardware Failures

Im Rahmen der Funktionalen Sicherheit empfiehlt die Norm ISO26262 Methoden zur Ermittlung der Wahrscheinlichkeitsmetrik für zufällige Hardware-Ausfälle (PMHF), also eine Restfehlerrate. Das umfasst die Berechnung der Systemausfallraten; eine FTA (Failure Tree Analysis), die Bewertung des ASIL für die funktionale Sicherheit und Fallbeispiele.

PMT, Process Methods and Tools

Prozess-Methoden und Tools

PQC, Post-Quantum Cryptography

Verschlüsselungs-Algorithmen, die sogar Quanten-Computern standhalten sollen.

PUF, Physically Unclonable Functions

Physikalisch nicht klonbare Funktionen sind Hardwarestrukturen in einem Halbleiter, die dazu dienen, eine eindeutige Identifikation des Halbleiters zu ermöglichen oder Schlüssel für kryptografische Verfahren zu sichern. Chiphersteller wie Microchip (ehemals Microsemi), Intel und Maxim setzen auf dieses Verfahren.

QM, Qualitätsmanagement

Beispielsweise gemäß DIN EN ISO 9000

RCP, Rapid Control Prototyping

Rapid Control Prototyping bezeichnet eine rechnergestützte Entwurfsmethode zur schnellen Regelungs- und Steuerungsentwicklung. Typische Entwurfsschritte beim RCP umfassen die Spezifikation und Modellbildung des Zielgerätes, den Steuerungsentwurf im Modell und die Umsetzung auf dem Steuergerät sowie die Erprobung per Simulation und am realen System.

REST, Representational State Transfer

REST ist ein Programmierparadigma für verteilte Systeme.

RNN, Rekurrentes Neuronales Netzwerk

Rückgekoppeltes neuronales Netzwerk

RSA

Das nach seinen Entwicklern Rivest, Shamir und Adleman (RSA) benannte asymmetrische kryptographische Verschlüsselungsverfahren gilt bei sehr großen Schlüssellängen noch als sicher. Siehe auch AES. Das asymmetrische kryptographisches Verfahren kommt sowohl zum Verschlüsseln als auch beim digitalen Signieren zum Einsatz. Es verwendet ein Schlüsselpaar, bestehend aus einem privaten Schlüssel, der zum Entschlüsseln oder Signieren von Daten verwendet wird, und einem öffentlichen Schlüssel, mit dem man verschlüsselt oder Signaturen prüft. Der private Schlüssel wird geheim gehalten und kann nicht aus dem öffentlichen Schlüssel berechnet werden. Kryptographische Verfahren spielen auch beim Produkt und Know-How-Schutz in der intelligenten Produktion eine wichtige Rolle.

RTC, Real Time Clock

Die Echtzeituhr ein eigenständiger, akkugepufferter Digitaluhr-Chip, der einem Gerät oder Computersystem eine systemunabhängige Uhrzeit liefert. Im Wesentlichen ist das ein digitaler, quarzgetakteter Zähler, des Register bei Bedarf ausgelesen werden.

RTE, Runtime Environment

Eine Laufzeitumgebung oder auch Ausführungsumgebung stellt eine Plattform dar, auf der für ihr System codierte Anwenderprogramme ablaufen können. Für RTE-Architekturvorgaben für das Automobilumfeld macht Autosar.

RWT, Remote Wireless Tampering

Cyber-Angriff aus der Ferne auf ein elektronisches System über die Luftschnittstelle.

SAAM, Software Assurance Maturity Model

Reifegrad-Modell zur Sicherstellung der Software-Qualität

SaaS, Software as a service

Software als Dienstleistung im Rahmen des Cloud-Computing

SCADA, Supervisory Control and Data Acquisition

System zum Überwachen und Steuern von Prozessenin diversen technischen Umfeldern

SDK, Software Development Kit

Ein SDK unterstützt die Software-Entwickler mit Frameworks, Konfigurations-Spezifikationen, Applikations-Hinweisen, Code-Beispielen und diversen Programmier-Tools. Manche Elektronikhersteller zählen kleine Evaluierungs-Boards, einfache Programmieradapter, Debugger, bei Mobilfunk SIM-Karten-Kontingente, bei IoT-KITs Cloud-Kontingente dazu und legen liefern weiteres HW-Zubehör mit.

SOA, Sevice-Oriented Architectures

Serviceorientierte Architekturen (SOA)dienen in der IT-Industrie bereits seit Jahren dazu, verteilte Systeme zu beschreiben und zu strukturieren, aber das Thema gewinnt auch in der Automotive-Branche massiv an Bedeutung.

SOM, Self-Organizing Map; Selbstorganisierende Karte oder Kohonenkarte

Bezeichnet eine Art künstlicher neuronaler Netze; ihr Funktionsprinzip beruht auf der biologischen Erkenntnis, dass viele Strukturen im Gehirn eine lineare oder planare Topologie aufweisen.

SPM, Security Policy Management

SPOF, Single-Point-of-Failure

Unter einzelner Ausfallpunkt versteht man einen Bestandteil eines technischen Systems, dessen Ausfall den Ausfall des gesamten Systems nach sich zieht. Bei hochverfügbaren Systemen ist darauf zu achten, dass alle Komponenten eines Systems redundant ausgelegt sind. Dabei sollten Diversität und die örtlich verteilte Platzierung eine Rolle spielen. Kommen Systeme unterschiedlichen Aufbaus (beispielsweise verschiedener Hersteller) für die gleiche Aufgabe zum Einsatz, ist ein gleichzeitiger Ausfall aus einem einzelnen Grund unwahrscheinlicher. On-Premises-Cloudlösungen in der Medizin haben u.a. das Ziel große Datenmengen beispielsweisehref="https://www.all-electronics.de/abkuerzungsverzeichnis/ct/" target="_blank">CT, MRT, PET sicher vor Zerstörung und Diebstahl zu speichern.

TCO, Total Cost of Ownership

Total Cost of Ownership (TCO, Gesamtkosten des Betriebs) ist ein Abrechnungsverfahren, das Verbrauchern und Unternehmen helfen soll, alle anfallenden Kosten von Investitionsgütern (wie beispielsweise Software und Hardware in der IT) abzuschätzen.

TLS, Transport Layer Security

Ein Verschlüsselungsprotokoll zur sicheren Übertragung von Daten, beispielsweise über das Internet.

TRA, Threat and Risk Analysis

TRA ist eine Angriffs- und Risiko-Analyse und das Security-Pendant zu HARA

TRNG, True Random Number Generator

Echter Zufallsgenerator

TTM, Time-to-Market

Die Dauer von der Produktentwicklung bis zur Platzierung des Produkts am Markt. In dieser Zeit entstehen für das Produkt Kosten – es erwirtschaftet aber keinen Umsatz. Mehr über die Time-to-Market finden Sie hier.

UI, User Interface

Über die Anwenderschnittstelle tritt ein Mensch mit einer Maschine in Interaktion (siehe HMI). Am PC sind das beispielsweis sämtliche Ein- und Ausgabegeräte (Tastatur, Bildschirm etc.). Eine Weiterentwicklung ist die grafische Anwenderschnittstelle (GUI).

UML, Unified Modeling Language

Unified Modeling Language

VM, Virtual Machine (bei Software)

Das kann beispielsweise ein Betriebssystem sein, das als gekapselter Prozess innerhalb eines andern Systems läuft oder auf einem Teilbereich eines Servers.

WORM, Write Once Read Multiple

WORM-Elemente sind manipulationssichere Festwert-Datenspeicher, die sich nur einmal beschreiben, aber beliebig oft auslesen lassen. Ähnlich wie beim PROM (Programable Read Only Memory) schließt eine Sicherheitsvorkehrung das Löschen, Überschreiben und Ändern von Daten auf einem Speichermedium (Halbleiter, CD) dauerhaft aus. WORM lässt sich unterschiedlich umsetzen: Beim Hardware-WORM (True-WORM) ist die Write-Once-Eigenschaft physikalisch gegeben, die systemische Variante erreicht das per Adressierung oder Verwaltung durch den internen Controller. Als reine Softwarefunktionalität kann Soft-WORM in einem Netzwerkspeichersystem realisiert sein.

XML, Extensible Mark-up Language

XML ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten im Format einer Textdatei, die sowohl von Menschen als auch von Maschinen lesbar ist.

ZETA, Zero Day Exploit Attack

Eine solcher Angriff auf vernetzte IT-Systeme erfolgt über eine Software-Schwachstelle unmittelbar (am selben Tag) nach ihrer Entdeckung. In diesem Fall wird die Schwachstelle ausgenutzt, bevor sie vom Softwarehersteller durch einen Fix geschlossen werden kann. Besonders riskant sind ZETAs im Bereich vernetzer und autonomer Fahrzeuge.

Leave A Comment