Abkürzungsverzeichnis KI, Software, IT, EDV und Programmierung
Industrie Computer und PC Komponenten von ICP iEi
Künstliche Intelligenz & Deep Learning
ICP Deutschland bietet seit 2018/2019 eine komplette Serie an Industrie PCs für die Realisierung von Deep Learning Anwendungen und Projekten im Umfeld der künstlichen Intelligenz an. Hauptaugenmerk der industriellen Hardware unter dem "IEI Brand" ist eine integrierte intelligente Deep Learning Software von Intel. Die Deep Learning Technologie basiert auf sogenannten neuronalen Netzwerken, die es Maschinen ermöglicht künstliches Wissen durch Training und Interferenz zu erlernen, zu verfeinern sowie neue Informationen zu erkennen und sinnvoll zu verarbeiten.
Künstliche Intelligenz und Deep Learning sind Bestandteil der fortschreitenden Digitalisierung, die Internetgiganten wie Facebook, Google und Co bereits jetzt einsetzen und auch zukünftig vor der Industrie, wo Mensch und Maschinen interagieren nicht Halt machen wird.
Ihre Vorteile
Die Vorteile von KI-Lösungen sind vielfältig:
✔ Vorinstalliertes Software Paket bestehend aus OpenVINO™ Toolkit, Intel® Media SDK, Ubuntu 16.04 Desktop LTS Betriebssystem und Intel® System Studio 2018
Vorinstalliertes Software Paket bestehend aus OpenVINO™ Toolkit, Intel® Media SDK, Ubuntu 16.04 Desktop LTS Betriebssystem und Intel® System Studio 2018 ✔ Optimal abgestimmte Hardware Leistung durch Intel® Core™ i5 /i7 Prozessoren und Intel® HD Graphics zur Analyse von hochauflösenden Bild- und Videodaten sowie Maschinen- und Sensordaten
Optimal abgestimmte Hardware Leistung durch Intel® Core™ i5 /i7 Prozessoren und Intel® HD Graphics zur Analyse von hochauflösenden Bild- und Videodaten sowie Maschinen- und Sensordaten ✔ Flexibel skalierbare und erweiterbare Systeme durch PCIe x4 basierte Beschleunigungskarten, die mit VPU und FPGA Technologie ausgestattet sind
Flexibel skalierbare und erweiterbare Systeme durch PCIe x4 basierte Beschleunigungskarten, die mit VPU und FPGA Technologie ausgestattet sind ✔ Schnelle vereinfachte Entwicklung und Bereitstellung von Software an der Edge durch praxisnahe Referenzbeispiele
Wie funktioniert Deep learning?
Deep learning (DL) ist eine maschinelle Lerntechnik, die auf tiefen neuronalen Netzwerken und wiederkehrenden neuronalen Netzwerkarchitekturen basiert. Diese künstlichen neuronalen Netze sind mit der Struktur des menschlichen Gehirns vergleichbar. Der zugrunde liegende Lernprozess wird durch die Verwendung von Darstellungen von Merkmalen direkt aus Daten wie Bild, Text und Ton realisiert. Diese Darstellungen sind das Ergebnis der Abstraktion von Eingangsdaten in mehreren Schichten und auf verschiedenen Ebenen, die ein übersichtliches Netzwerk bilden. Deep Learning wird beispielsweise in den Bereichen Computer und Machine Vision, Sprach- und Audioerkennung oder Social Network Filtering eingesetzt. In einigen Fällen kann die Leistung von Deep-Learning-Algorithmen genauer sein als das menschliche Urteilsvermögen.
Watson (Künstliche Intelligenz) – Wikipedia
Watson ist ein Computerprogramm aus dem Bereich der künstlichen Intelligenz. Es wurde von IBM entwickelt, um Antworten auf Fragen zu geben, die in digitaler Form in natürlicher Sprache eingegeben werden. Das nach Thomas J. Watson, einem der ersten Präsidenten von IBM, benannte Programm wurde als Teil des DeepQA-Forschungsprojektes entwickelt.[1]
Zur Demonstration seiner Leistungsfähigkeit konkurrierte das Programm in drei vom 14. bis 16. Februar 2011 ausgestrahlten Folgen der Quizsendung Jeopardy! mit zwei menschlichen Gegnern, die in der Show zuvor Rekordsummen gewonnen hatten. Die Partie, für die ein Preisgeld von einer Million Dollar ausgelobt war, wurde in den Medien daher mit dem Duell des Schachweltmeisters Garri Kasparow gegen den Computer Deep Blue verglichen.[2] Das System gewann das Spiel mit einem Endstand von $77.147 gegenüber den $24.000 bzw. $21.600 seiner menschlichen Konkurrenten.[3][4] Im Januar 2017 ersetzte eine japanische Versicherung mehr als 30 Mitarbeiter durch die Watson-Plattform.[5] Die KI soll Namen und Daten der Versicherten sowie deren medizinische Vorgeschichte prüfen und Verletzungen bewerten.
Inzwischen wird der Begriff Watson von IBM für unterschiedliche Lösungen verwendet, die künstliche Intelligenz in Data-, AI- und Businessanwendungen integrieren.[6]
Hintergrund und Zielsetzung [ Bearbeiten | Quelltext bearbeiten ]
Ziel des Projekts ist es letztlich, eine hochwertige Semantische Suchmaschine zu schaffen. Diese soll den Sinn einer in natürlicher Sprache gestellten Frage erfassen und in einer großen Datenbank, die ebenfalls Texte in natürlicher Sprache umfasst, innerhalb kurzer Zeit die relevanten Passagen und Fakten auffinden. Eine derartige Software könnte in vielen Bereichen, etwa der medizinischen Diagnostik, komplexe Entscheidungen unterstützen, insbesondere wenn diese unter Zeitdruck getroffen werden müssen.
Watson implementiert Algorithmen der Natürlichen Sprachverarbeitung und des Information Retrieval, aufbauend auf Methoden des Maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz.[7] Das System enthält Softwaremodule zur Erstellung von Hypothesen, ihrer Analyse und Bewertung. Es greift dabei auf eine Aussagensammlung und umfangreiche Textbestände zurück, ist jedoch nicht mit dem Internet verbunden. Anfragen an Watson werden bislang in Textform gestellt. Anders als aktuelle Systeme wie z. B. Wolfram Alpha benötigt es jedoch keine formale Abfragesprache. Seit Februar 2011 arbeitet IBM mit der Firma Nuance zusammen, einem führenden Hersteller von Software zur Spracherkennung. Die geplante Fähigkeit, auch gesprochene Fragen zu bearbeiten, soll den Einsatz einer spezialisierten Version Watsons im Gesundheitswesen erleichtern.[8]
IBM plant, auf Watson basierende Systeme im Laufe der nächsten Jahre kommerziell zu vermarkten. Der Leiter des zuständigen Forschungslabors geht davon aus, dass die Kosten des Gesamtsystems zunächst mehrere Millionen US-Dollar betragen könnten, da bereits die notwendige Hardware mindestens eine Million Dollar kostet.[9] Im Rahmen von Pilotstudien wurde das System bislang unter anderem dazu verwendet, Vorhersagen zu treffen, welche Arzneistoffe gegen bestimmte Krankheiten wirksam sein könnten; durch Integration zahlreicher Sensordaten und Informationen zu Umwelteinflüssen vorherzusagen, welche Bauteile komplexer Industriemaschinen Gefahr laufen vorzeitig auszufallen und daher gewartet werden sollten; aber auch dazu, innovative Kombinationen von Zutaten für schmackhafte Kochrezepte vorzuschlagen.[10] Zudem ist geplant zukünftig neuromorphe Chips, wie z. B. TrueNorth, zu integrieren um Eingaben in Form von natürlicher Sprache, Bildern und Videos, sowie beliebigen Sensoren zu ermöglichen.[11] Darüber hinaus soll Watson in Zukunft Rechtsanwälte bei der rechtlichen Recherche in juristischen Datenbanken entlasten.[12]
Auftritt bei Jeopardy! [ Bearbeiten | Quelltext bearbeiten ]
Jeopardy!, unterlag im Februar 2011 dem Computerprogramm Watson Ken Jennings , ein 74-maliger Sieger bei, unterlag im Februar 2011 dem Computerprogramm Watson
Die Quizshow Jeopardy! stellt Systeme zur automatischen Beantwortung natürlichsprachiger Fragen vor eine interessante Herausforderung, da die als Antworten gestellten Aufgaben meist bewusst mehrdeutig formuliert sind, häufig die Verknüpfung mehrerer Fakten erforderlich machen und die passende Frage innerhalb eines Zeitlimits von fünf Sekunden gefunden werden muss. Die Entwickler des System Watson setzten sich daher das Ziel, in diesem Spiel menschliche Kandidaten zu schlagen.
Bei ersten Testläufen im Jahr 2006 fand Watson nur für etwa 15 % von 500 Umschreibungen vorangegangener Jeopardy!-Sendungen die korrekte Frage. Die besten Kandidaten von Jeopardy! erreichen im Vergleich dazu etwa 95 % Genauigkeit. Im Laufe der nächsten Jahre wurde Watson mit einer Datenbank von ungefähr 100 Gigabyte an Texten ausgestattet, darunter Wörterbücher, Enzyklopädien, wie z. B. die gesamte Wikipedia, und anderes Referenzmaterial. Watson hat jedoch keine Verbindung zum Internet, ist also, wie seine menschlichen Gegenspieler, auf sich allein gestellt. Die Informationen werden unter anderem statistisch ausgewertet, um Sinnbezüge herzuleiten. Anstatt sich auf einen einzelnen Algorithmus zu stützen, nutzt Watson hunderte davon gleichzeitig, um über einen Pfad eine potentiell richtige Antwort zu finden. Je mehr Algorithmen unabhängig voneinander die gleiche Antwort erreichen, als desto wahrscheinlicher wird es angesehen, dass Watson die korrekte Lösung gefunden hat. Wenn das System für eine Aufgabe eine kleine Anzahl potentieller Lösungen erarbeitet hat, werden diese anhand einer Datenbank überprüft, um zu bewerten, welche davon als potentiell sinnvoll gelten können. Dazu werden z. B. Zeitangaben überprüft.
In einer Sequenz von 20 Übungsspielen nutzten die menschlichen Kandidaten die 6 bis 8 Sekunden Dauer während des Lesens des Ratebegriffes dazu, den Buzzer zu betätigen und die korrekte Antwort zu geben. Das auf diese Zeitspanne optimierte System Watson evaluiert eine Antwort und entscheidet, ob es genügend Sicherheit bezüglich des Ergebnisses gibt, um den Buzzer auszulösen.[9][13]
Seit Februar 2010 ist Watson in der Lage, im Rahmen regelgerechter Partien menschliche Jeopardy!-Kandidaten zu schlagen.[14] IBM stellte zunächst eine Übungssituation in einem Konferenzraum im Thomas J. Watson Research Center in Yorktown Heights, New York, nach, die die Situation bei Jeopardy nachahmt, und ließ Einzelpersonen, einschließlich früherer Jeopardy-Kandidaten, in Probespielen gegen Watson teilnehmen, mit Todd Alan Crain von The Onion als Quizmaster. Dem Computersystem, auf dem Watson ausgeführt wurde, wurden die Ratebegriffe (als Antwort auf eine Frage) elektronisch übermittelt und es war in der Lage, den Buzzer zu betätigen und mit einer elektronischen Stimme die Antworten im Jeopardy-eigenen Frageformat zu geben.[9][13]
Schließlich trat Watson bei Jeopardy in drei Sendungen, die zwischen dem 14. und 16. Februar 2011 ausgestrahlt wurden, gegen die früheren Champions Ken Jennings und Brad Rutter an, welche in der Show zuvor Rekordsummen gewonnen hatten. Nachdem das System Watson und der Kandidat Rutter nach der ersten Runde noch gleichauf lagen, ging Watson aus den beiden anderen als klarer Sieger hervor. Das Preisgeld von einer Million US-Dollar stellte IBM gemeinnützigen Zwecken zur Verfügung. Jennings und Rutter kündigten an, jeweils die Hälfte ihrer Preise von $300.000 bzw. $200.000 zu spenden.[3]
Die Softwareengine von Watson ist DeepQA. Diese läuft bei Watson auf dem Betriebssystem SUSE Linux Enterprise Server.[15]
Der Rechnerverbund besteht aus 90 Power 750 Servern mit 16 TB RAM. Jeder Server besitzt einen mit 3,5 GHz getakteten Power7 8-Kern Prozessor, wobei jeder Kern bis zu 4 Threads gleichzeitig ausführt.[16][17]
Geschrieben wurde DeepQA in verschiedenen Programmiersprachen; darunter Java, C++ und Prolog. DeepQA ist hierbei in Form von Annotatoren einer UIMA-Pipeline implementiert.[18][19]
Durch den Einsatz von UIMA Asynchronous Scaleout und Hadoop wird eine massive Parallelisierung ermöglicht. Spezielle UIMA Annotatoren ermöglichen dabei eine Abbildung auf Hadoop MapReduce-Schema um eine große Anzahl von Textdokumenten parallel durchsuchen zu können.
Funktionsweise von IBM Watson
Watson übernimmt eine Jeopardy!-Antwort (die Frage) des Moderators in elektronischer Form über eine Tastatur. Eine solche Jeopardy!-Antwort kann dabei sehr komplex sein und aus mehreren Sätzen, Rätseln und Wortwitzen bestehen.
Linguistischer Präprozessor [ Bearbeiten | Quelltext bearbeiten ]
Die Jeopardy!-Antwort wird von der DeepQA-Engine mit Hilfe eines Linguistischen-Präprozessors analysiert. Dabei wird die logische Struktur mit Hilfe eines Parsers des Satzes als Baum in Prolog abgebildet.
Ein Tokenizer, bestehend aus UIMA-Annotatoren für Pattern Matching, kümmert sich um die Abbildung auf Lexikalische Antworttypen (LAT). Dabei wird die Beziehung der Satzteile zueinander (die Grammatik) analysiert. Das betrifft insbesondere das Pronomen (auf das Watson sich mit der von ihm zu generierenden Frage beziehen muss), sowie Wörter, die angeben, welche Klasse von Antwort (z. B. Poet, Land, Epoche etc.) gesucht wird.[20]
Das Pronomen wird – sofern dieses nicht als solches erkennbar ist – dadurch gefunden, dass durch dessen Entfernung aus der Frage eine Aussage wird. Auf diesen Teil des Satzes legt DeepQA den Fokus bei der Kandidatenbewertung.[21]
Die Kandidatengenerierung nimmt den Prolog-Code des Linguistischen Präprozessors entgegen und leitet diese an verschiedene Suchmaschinen weiter. Hierbei wird etwa INDRI und Lucene für die Durchsuchung von unstrukturierten Dokumenten eingesetzt, welche in einem HDFS gespeichert sind. Zudem gibt es spezielle Engines die den LAT-Prolog-Code entgegennehmen und SPARQL-Abfragen auf semantischen Datenbanken (Triplestores) bzw. SQL-Abfragen auf relationalen Datenbanken durchführen, welche auf DB2 basieren.[22] Die Dokumente decken hierbei ein breiteres Wissensgebiet ab und sind schneller durchsuchbar, während die strukturierten und insbesondere semantischen Datenquellen eine höhere Genauigkeit bieten.[21]
Die Daten stammen aus verschiedenen Quellen, wie etwa DBpedia, Wordnet, Yago, Cyc, Freebase, Wikipedia, IMDB, World Book Encyclopedia, der Bibel sowie verschiedenen Taxonomien und Ontologien, Literarischen Werken und Artikeln von PR Newswire und New York Times. Zudem werden Webseiten analysiert und in Form von Textschnipseln in den Datenbanken von Watson gespeichert.[21]
DeepQA generiert dabei zwischen 100 und 250 Suchergebnisse. Diese Ergebnisse (Kandidaten) stellen Hypothesen für die mögliche Antwort dar.[21]
In Jeopardy! hat Watson keinen Zugriff auf das Internet, sondern nur auf die Daten in den internen Datenbanken. Prinzipiell hat DeepQA für zukünftige Anwendungen jedoch auch die Möglichkeit, weitere Informationen aus dem Internet zu beziehen und mit Hilfe von Webservices auch Echtzeitdaten zu berücksichtigen.
Die wahrscheinlichsten Ergebnisse der Suche werden genauer analysiert. Hierzu besitzt DeepQA mehrere tausend Softwareagenten die jeweils eine ganz spezielle Analyse parallel durchführen. Hierzu gehören vor allem Agenten für die Analyse von zeitlichen (temporalen) und räumlichen (spatiellen) Zusammenhängen, Taxonomien, einfachen Berechnungen für Rechenrätsel, Bewertung der Akustik für Wörter die ähnlich klingen, Scrabble-Bewertung für Wörter deren Buchstaben vertauscht wurden, Agenten, die Suchergebnisse einer genaueren semantischen Analyse durchführen, sowie viele andere mehr.
Diese Analyse umfasst oft ein sehr breites Wissensspektrum, wobei verschiedene Kandidaten und Wissensdomänen von den jeweiligen Agenten voneinander unabhängig und massiv parallel analysiert werden. Da jedes Suchergebnis von bis zu tausend Agenten analysiert wird, multipliziert sich die Anzahl der gleichzeitig analysierten Evidenzfragmente. Aus den 100 bis 250 Hypothesen werden somit bis zu 100.000 Evidenzfragmente die in unabhängigen Threads analysiert werden. Ein Softwarefilter eliminiert alle Ergebnisse von Agenten, die keinen Beweis für die Richtigkeit eines Suchergebnisses erbracht haben.
„Olli“ auf der CeBIT 2017
Ende August 2016 veröffentlichte 20th Century Fox einen Trailer zum Film Das Morgan Projekt, der von Watson gefertigt wurde. Es handelt sich dabei um den ersten Trailer der Filmgeschichte, der durch einen Algorithmus entstanden ist.[23] Der IBM-Manager John R. Smith erklärte in einem Blogeintrag, Watson habe insgesamt 100 Trailer von Horrorfilmen analysiert, um den rund 60 Sekunden langen Trailer zu fertigen. Watson unterteilte diese in Segmente, und nach einer visuellen Analyse, einer Audio-Analyse und einer Analyse der Szenen-Zusammensetzung, analysierte die künstliche Intelligenz den Film Morgan und filterte die passenden Stellen heraus. Letztlich entschied sich das System für zehn Sequenzen, aus denen dann ein Filmteam den Trailer zusammensetzte.[24]
Auf der CeBIT 2017 präsentierte IBM einen autonomen Bus namens Olli, der durch Watson gesteuert wird. Watson und Olli sind vernetzt, die Rechenleistung kommt aus IBMs Datenzentrum in Frankfurt.[25][26][27]
In Form von unterschiedlichen Anwendungen steht Watson mittlerweile auch Endnutzern zur Verfügung. Ein Beispiel hierfür ist Cognos Analytics, eine Software für intelligente Datenanalyse und Visualisierung, oder Watson Assistant, mit dem intelligente Chatbots und digitale Assistenten erstellt werden können.[28] Zahlreiche weitere Watson Services können teilweise sogar kostenlos über die IBM Cloud in Anspruch genommen werden und reichen von Bild- und Spracherkennung bis hin zu Machine Learning Modellen.[29]
Im Bereich der Onkologie berät Watson for Oncology Krebsärzte in 230 Krankenhäusern weltweit bei der Suche nach der jeweils besten Therapie (Stand Mitte 2018). Allerdings kritisierte 2017 der Leiter der Krebsabteilung von Kopenhagens Reichskrankenhaus das System scharf und stoppte an seiner Klinik das Experiment.[30]
Filmische Dokumentationen [ Bearbeiten | Quelltext bearbeiten ]
Abkürzungsverzeichnis KI, Software, IT, EDV und Programmierung
Die wichtigsten Definitionen rund um KI, Software, IT, EDV und Programmierung
Was ist eine Blockchain, und bedeutet IP, DNN oder ERP? Wir erklären Begriffe aus den Bereichen KI, Software, IT, EDV und Programmierung – von AES und ECC über KI, PQC und TLS bis jenseits von VM und XML.
Die folgende Zusammenstellung enthält kurze Erklärungen und Definitionen für wichtige Abkürzungen (zum Beispiel KI, DNN, ERP oder IP) und Begriffe wie Blockchain – und zwar aus den Themengebieten KI, Software, IT, EDV und Programmierung. Verknüpfungen zu themenbezogenen Fachbeiträgen wie auch zu weiterführenden Webseiten liefern dabei viele weitere Details und informieren über den Stand der Technik.
AES, Advanced Encryption Standard
Der vom vom National Institute of Standards and Technology (NIST) weiterentwickelten Verschlüsselungsstandard AES aus dem Jahr 2000 ist eine Blockchiffre und Nachfolger für DES (Data Encryption Standard). Nach seinen Entwicklern wird AES auch Rijndael-Algorithmus genannt. Beim diesem symmetrischen Verschlüsselungsverfahren sind die Schlüssel zum Ver- und Entschlüsseln identisch. Der Algorithmus ist frei verfügbar und darf ohne Lizenzgebühren eingesetzt sowie in Soft- und Hardware implementiert werden. AES-192 und AES-256 sind in den USA für staatliche Dokumente mit höchster Geheimhaltungsstufe zugelassen. Kryptographische Verfahren spielen auch beim Produkt und Know-How-Schutz in der intelligenten Produktion eine wichtige Rolle. Weitere Kryptografiestandards sind unter anderem DES und FAME.
AI, Artificial Intelligence
Künstliche Intelligenz bei Maschinen, siehe KI
ALM, Application Lifecycle Management
Application Lifecycle Management
APT, Advanced Persistent Threats
Hochentwickelte Sicherheitsbedrohungen; Cyber-Bedrohung
ASK, Amplitude-Shift Keying
Die Amplitudenumtastung (ASK) zählt zu den digiaten Modulationsverfahren in der Nachrichtentechnik. Dabei wird die Amplitude eines Trägers sprunghaft verändert, um verschiedene Werte zu übertragen. Die einfachste Form der Amplitudentastung ist das On-Off Keying (OOK), bei dem der Träger an- und ausgeschaltet wird, um eine 1 oder 0 zu übertragen. Unterschiedlich hohe Amplitudensprünge erlauben es pro Symbolschritt mehrere Bits zu kodieren (vier unterschiedliche Amplituden repräsentieren zwei Bits: 00, 01, 10 und 11). Höhere Datenraten nutzen mehrere Träger parallel.
Bare-Metal-Server
Ein Bare-Metal-Server ist ein eigenständiger Computerserver für einen Einzelkunden. Der Begriff unterscheidet sich von Formen der Virtualisierung und des Cloud-Hosting.Bare-Metal-Server haben einen einzigen Kunden und werden nicht von mehreren Kunden gemeinsam genutzt. Jeder zur Vermietung angebotene Bare-Metal-Server bildet einen eigenständig funktionierenden logischen Server auf einer eigenständigen physischen Hardware, im Gegensatz zu einem virtuellen Server, der auf mehrfach benutzter Hardware ausgeführt wird. Beachten Sie im Zusammenhang mit Virtualisierungsarchitektur auch den Begriff Bare-Metal-Virtualization.
Bare-Metal-Virtualization
Unter Bare-Metal-Virtualization versteht man eine Virtualisierungsarchitektur mit direktem Hardware-Zugriff. Neben der Host-Virtualisierung ist die Bare-Metal-Variante die zweit häufigste Virtualisierungsarchitektur. Hier kommuniziert die VMM-Software (Virtual Machine Monitor, Hypervisor) direkt mit der Hardware ohne dazwischenliegendes Host-Betriebssystem. So kann der Hypervisor ohne Umwege mit I/O-Geräten kommunizieren. Im Gegensatz zur Host-Lösung ist der Installationsaufwand beim Bare-Metal-Ansatz deutlich höher, denn der Hypervisor muss grundsätzlich über die Treiber der Geräte und über die notwendigen Treiber der unterschiedlichen Hardwareplattformen verfügen. Bare Metal unterstützt insbesondere Echtzeitbetriebssysteme, welche parallel zu einem universellen Betriebssystem ausgeführt werden können. Ein Fachbeitrag zur Virtualisierung von eingebetteten Industriesystemen erörtert verschiedene Hardware-Virtualisierungsmethoden für die Prozessautomatisierung. Beachten Sie in diesem Zusammenhang auch den Begriff Bare-Metal-Server.
BER, Bit Error Rate
Deutsche Bezeichnungen für Bit Error Rate (BER) sind Bitfehlerrate (BFR) oder Bitfehlerhäufigkeit (BFH). Es ist in der Nachrichtentechnik ein Maß für die Qualität der digitalen Signalübertragung. Einflussfaktoren sind Rauschen, Interferenzen, Signalverzerrungen oder Bit-Synchronisationsfehler. Einheit ist „Anzahl der Fehler pro Zeiteinheit“.
Blockchain
Im Prinzip ist eine Blockchain eine blockweise Verkettung von Transaktions-Daten. Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, Blöcke genannt, die mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Als dezentrale Datenbank ermöglicht es dieses Konzept, Transaktionen schnell abzuwickeln und besonders fälschungssicher zu speichern. Die blockweise gespeicherten Daten sind chronologisch miteinander verkettet und bauen inhaltlich aufeinander auf. Im Falle einer Manipulation einzelner Daten im Nachhinein, ist dies mit einfachen Mitteln anhand der nachfolgenden Blöcke feststellbar. Die Blockchain kann dezentral an vielen Orten gleichzeitig abgelegt sein, was sie vor Manipulation schützt, denn mehrere der anderen Teilnehmer (Blockchain-Node) können neue hinzugefügte Blöcke überprüfen.
BOL, Beginning of Life
Beginn der (Produkt-)Lebensdauer. Ein Begriff aus der Batterietechnik.
BPSK, Binary Phase-Shift Keying
Modulationsverfahren in der Nachrichtentechnik --> siehe PSK.
BSI, Bundesamt für Sicherheit in der Informationstechnik
Das BSI wurde am 1. Januar 1991 gegründet und gehört zum Geschäftsbereich des Bundesministeriums des Innern. Die Behörde mit Hauptsitz in Bonn ist eine unabhängige und neutrale Stelle für Fragen zur IT-Sicherheit in der Informationsgesellschaft. Derzeit sind dort über 800 Informatiker, Physiker, Mathematiker und andere Mitarbeiter beschäftigt.
BSIMM, Building Security In Maturity Model
Bei BSIMMhandelt es sich um eine Initiative rund um Software-Security in der realen Welt.
BV, Bildverarbeitung
obwohl es sich um eine deutsche Abkürzung handelt, ist BV im Deutschen recht gängig, weil die Abkürzung des englischen Pendants, image processing, bereits mehrfach belegt ist (IP: Internet Protocol, Intellectual Property)
CA, Conditional Access
In der Informationssicherheit gibt diese Organisation digitale Zertifikate heraus. Ein solches dient dazu, einen bestimmten öffentlichen Schlüssel einer Person oder Organisation zuzuordnen, was die Zertifizierungsstelle beglaubigt, indem sie den Schlüssel mit ihrer eigenen digitalen Unterschrift versieht. Wie das im vernetzten Automobil funktioniert, beschreibt dieser Fachbeitrag.
CA, Certificate Authority
Bedingter Zugang (bei Pay-TV und ähnlichen Inhalten)
CbM, Condition-based Monitoring
Die zustandsbasierte Überwachung (Condition-based Monitoring, CbM) sorgt durch Auswertung des Betriebszustands der betreffenden Maschine dafür, dass die Instandhaltungskosten gegenüber einem geplanten Instandhaltungssystem zurückgehen, das auf einem festgelegten und oftmals recht konservativen Zeitplan basiert. Weitere Details zur praktischen Umsetzung von CbM finden Sie hier
CC, Common Criteria
Die hier verlinkte Wikipedia-Seite definiert CCwunderbar kompakt: Bei den CC handelt es sich um allgemeine Kriterien für die Bewertung der Sicherheit von Informationstechnologie; CC sind ein internationaler Standard zur Prüfung und Bewertung der Sicherheitseigenschaften von IT-Produkten.
CERT, Computer Emergency Response Team
Der Software-Codierungsstandard für die Programmiersprache C wurde vom CERT-Koordinierungszentrum am Software Engineering Institute (SEI) entwickelt, um die Zuverlässigkeit und Sicherheit von Softwaresystemen zu verbessern. Die Richtlinien für sichere Codierung sind mit mehreren anderen Standards verknüpft, einschließlich CWE-Einträgen (Common Weakness Enumeration) und MISRA. CERT oder auch CSIRT (Computer Security Incident Response Team) ist eine Gruppe von EDV-Sicherheitsfachleuten, die bei der Lösung von konkreten IT-Sicherheitsvorfällen (neue Sicherheitslücken in Anwendungen oder Betriebssystemen, neuartige Virenverbreitung, Spam oder Cyber-Attacken) als Koordinator mitwirkt oder sich ganz allgemein mit Computersicherheit befasst, Warnungen vor Sicherheitslücken herausgibt und Lösungsansätze anbietet. Richtlinen bezüglich Zuverlässigkeit und Sicherheit kommen auch im Bereich Medizin-Software zum tragen, wie dieser Beitrag zeigt.
CFD, Computational Fluid Dynamics
Software-Lösung zur Strömungssimulation
CFM, Control Flow Monitoring
Steuerungsfluss-Überwachung (im Bereich modellbasierte Entwicklung)
CG, Carrier Grade
Carrier Grade (etwa: Betreiberniveau) ist eine informelle Angabe für die Ausfallsicherheit eines Systems. Sie wird insbesondere im Bereich von Netzwerkkomponenten für Computer- und Telekommunikationsnetze verwendet und bedeutet, dass das Gerät im Jahr durchschnittlich weniger als 5 Minuten ausfällt. Das entspricht einer Verfügbarkeit von 99,999 % der Gesamtzeit, was häufig auch als fünf Neunen bezeichnet wird.
CISPA, Center for IT Security, Privacy and Accountability
Das CISPA ging aus dem seit 2011 bestehenden BMBF-Kompetenzzentrum Center for IT Security, Privacy and Accountability hervor und fungiert jetzt als Helmholtz-Zentrum für Informationssicherheit (unter der Abkürzung CISPA) als deutsche Großforschungseinrichtung des Bundes im Rahmen der Helmholtz-Gemeinscha
CMMI, Capability Maturity Model Integration
eine systematische Sammlung von Referenzmodellen
CNN, Convolutional Neural Network
Eine Realisierungsform des neuronalen Netzwerks, die bei Künstlicher Intelligenz für maschinelles Lernen zur Anwendung kommt. Hintergrundinfos zum Einsatz von CNNsim Auto liefern die Nvidia-Keynotein Ludwigsburg 2017 sowie Wikipedia.
CRC, Cyclic Redundancy Check
Das CRC (zyklische Redundanzprüfung) genannte Prüfverfahren fügt jedem Datenpaket vor der Speicherung oder Übertragung zusätzliche Redundanz in Form eines CRC-Werts zu, um Übertragungsfehler erkennen zu können. Ein Empfänger wendet zur Überprüfung der Daten dasselbe Berechnungsverfahren auf den Datenblock einschließlich des angefügten CRC-Werts an. Ist das Ergebnis null, gilt der Datenblock als unverfälscht. Im Idealfall kann das Verfahren sogar die empfangenen Daten selbständig korrigieren, um eine erneute Übertragung zu vermeiden.
CSMS, Cyber Security Management System
Nähere Infos finden Sie hier.
CWE, Common Weakness Enumeration
Die CWE richtet sich an (Software-)Entwickler und Sicherheitsfachleute und ist eine formale Sammlung für Arten von Softwareschwächen. Sie dient als gemeinsame Sprache zur Beschreibung von Software-Sicherheitslücken bezüglich Architektur, Design oder Code; ist ein Maßstab für Software-Sicherheitstools und stellt gemeinsame Basisstandards für die Ermittlung, Abschwächung und Vorbeugung von Schwachstellen bereit.
DES, Data Encryption Standard
Ein Kryptografiestandard. Siehe auch AESund FAME
DevOps, Development – IT Operations
DevOpszielt darauf ab, das Zusammenspiel zwischen Software-Entwicklung und der IT-Infrastruktur zu verbessern.
DFKI, Deutsches Forschungszentrum für Künstliche Intelligenz
Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ist eine öffentlich-private Partnerschaft mit Großunternehmen, Mittelständlern, den Ländern Rheinland-Pfalz, Bremen und Saarland als Gesellschaftern und dem deutschen Bundesministerium für Bildung und Forschung als Projektförderer
DGN, Deep Grid Net
DGN versteht als Deep-Learning-System den Kontext , in dem sich ein autonomes Fahrzeug bewegt. Der Deep-Grid-Net-Algorithmus prognostiziert diesen Kontext, indem er lokale Occupancy Grids (OG) analysiert, die aus fusionierten sensorischen Rohdaten aufgebaut sind. Die Firma Elektrobit prägte den Begriff DGN
DNN, Deep Neural Network
In der technischen Welt kommen komplexe neuronale Netzwerke in Maschinen und Steuerungsprozessen mit künstlicher Intelligenz (KI, AI) zum Einsatz oder auch zur Bewältigung immenser Datenfluten in der Datenverarbeitung. Nach einer Anlern- oder Trainingsphase können Inferenzmaschinen Datenkontexte verstehen und Prognosen ableiten. Die leistungsstarke Hardware für DNN verwendet GPU- und GSP-Architekturen.
DOE, Design of Experiments
eine Modellierungs-Methode im Rahmen der modellbasierten Applikation
DoIP, Diagnostics over IP
Diagnose per IP-Verbindung
DPA, Differntial Power Analysis
Mit dieser Kryptoanalyse lässt sich die Verschlüsselung von Smartcards oder anderen Verschlüsselungskomponenten ermitteln. Das DPA-Verfahren greift den Spannungspegel an verschiedenen Pins ab, um diese einer statistischen Analyse zu unterziehen. Aus dem Rechenaufwand über die Zeit lässt sich somit das Verschlüsselungsverfahren und der Geheimschlüssel ableiten. Die DPA ist eine Seitenkanalattacke.
DPM, Defects Per Million oder Defects Per Million Opportunities (DPMO)
Im Gegensatz zur Angabe von Fehler pro Einheit (Fehler/ppm) wird bei DPMO die Anzahl aller möglichen Fehler pro Einheit miteinbezogen um verschieden komplexe Einheiten besser vergleichbar zu machen.
DRM, Digital Rights Management
Digitales Rechte-Management
DTLS, Datagram Transport Layer Security
Ein auf TLS basierendes Verschlüsselungsprotokoll. Details zu DTLS finden Sie hier.
EAL, Evaluation Assurance Level
EAL definiert im Rahmen der Common Criteria (CC) sieben Ebenen der Vertrauenswürdigkeit von EAL 1 bis EAL 7
ECC, Elliptic Curve Cryptography
Das Datenverschlüsselungsverfahren (Elliptische-Kurven-Kryptografie) ist ein asymmetrisches Verschlüsselungsverfahren. Basis für den 1985 entwickelten Verschlüsselungsalgorithmus sind elliptische Kurven. Das Verfahren ist nur sicher, wenn diskrete Logarithmen in der Gruppe der Punkte der elliptischen Kurve nicht effizient zu berechnen sind.
ECDH, Elliptic Curve Diffie Hellman
Das Datenverschlüsselungsverfahren ECDH setzt Verschlüsselungsalgorithmus des Diffie-Hellman-Verfahrens (DH) auf, das auf der Potenzierung der zu verschlüsselnden Daten mit großen Exponenten basiert. Das Verfahren, dessen Grundlage ECC bildet, bietet hohe Sicherheit bei relativ kurzen Schlüssellängen. Beispielsweise verwendet eine besonders sicherheitskritische Bluetooth-Kommunikation diese Verschlüssellungsmethode.
ECDSA, Elliptic Curve Digital Signature Algorithm
Eine Variante des DSA-Verfahrens im Rahmen der Kryptographie ist das ECSDA-Verfahren.
ERP, Enterprise Resource Planning
In der Geschäftsressourcenplanung kommen ERP-Systeme als betriebswirtschaftliche Softwarelösungen zur Steuerung von Geschäftsprozessen zum Einsatz. Mit ihnen werden betriebliche Ressourcen wie Kapital, Personal oder Produktionsmittel bestmöglich gesteuert und verwaltet, was einen effizienten betrieblichen Wertschöpfungsprozess und eine stetig optimierte Steuerung der betrieblichen Abläufe gewährleisten soll. Kernfunktion von ERP ist in produzierenden Unternehmen die Materialbedarfsplanung, damit alle für die Produktherstellung erforderlichen Materialien zeitlich, örtlich und in der richtigen Menge verfügbar si
EXI, Efficient XML-Interchange
XML-Interchange ist ein vom World Wide Web Consortium (W3C) vorgeschlagenes Format für die binäre Repräsentation von XML-Information Sets (die Strukturierung eines XML-Dokumentes). Im Vergleich zu textbasierten XML-Dokumenten können Dokumente im EXI-Format schneller verarbeitet werden und benötigen weniger Bandbreite beim Transfer über ein Netzwerk. Neben EXI gibt es weitere Ansätze eine binäre Repräsentation für XML zu etablieren, z.B. Binary XML.
FAME, Fast Attribute-based Message Encryption
Ein Kryptografiestandard, der direkt mit AESund DESkonkurriert.
Framework, Grundstruktur, Rahmenwerk
Im Software-Engineering ist ein Framework ist kein eigenständiges Programm, sondern ein Rahmengerüst, welches den Programmierer bei seiner Anwendungsprogrammierung unterstützt. Das Framework wird vorwiegend in der objektorientierten Programmierung eingesetzt und umfasst Bibliotheken, Schnittstellen, Laufzeitumgebungen und diverse Tools. Es beeinflusst die Entstehung der Software-Architektur und stellt die Designgrundstruktur für Basisbausteine in Form von abstrakten und konkreten Klassen zur Verfügung.
FTA, Failure Tree Analysis
Failure Tree Analysis, auch Fehlerbaumanalyse genannt, ist eine Methode der Zuverlässigkeitsanalyse von technischen Anlagen und Systemen.
GAN, Generative Adversarial Networks
GANist eine besondere Algorithmik für unüberwachtes Lernen.
GCC, Global Chassis Control, globale Fahrwerksregelung
ein von Conti initiierter Begriff
GDB, GNU Debugger
Offener Debugger, der verschiedene Programmiersprachen unterstützt wie beispielsweise C, C++, Fortran oder Java.
GLPL, GNU Lesser General Public License
spezielle Variante von GPL
GNU, ein offenes Software-Projekt
GNU ist ein offenes, Linux-ähnliches Betriebssystem. Als Freie Software können die Nutzer das Programm beliebig verwenden, verbreiten, verändern und untersuchen dürfen. Siehe auch GPL, GNU General Public License.
GPL, GNU General Public Licence
Lizenzierungsform für frei zugängliche Software. Details zu GNU General Public Licence finden Sie hier.
GUI, Graphical User Interface
Grafische Schnittstelle zum Anwender/Nutzer
HDCP, High-bandwidth Digital Content Protection
HDCP ist ein von Intel im Jahre 2003 entwickeltes kryptografisches Verschlüsselungssystem, das für die Schnittstellen DVI, HDMI und DisplayPort zur geschützten Übertragung von Audio- und Video-Daten vorgesehen ist. HDCP soll in Europa Standard für HDTV werden und kommt bei Blu-ray-Disc wie auch HD-DVD zum Einsatz. Das Verschlüsselungsverfahren soll das Abgreifen des Video- und Audiomaterials innerhalb der Verbindung zwischen Sender und Empfänger verhindern. Jedes HDCP-konforme Gerät hat laut Spezifikation 40 Schlüssel mit jeweils 56 Bit Länge gespeichert.
ICA, Independent Component Analysis; Unabhängigkeitsanalyse
Methode aus der multivariaten Statistik zur Berechnung unabhängiger Komponenten in einer Mischung statistisch unabhängiger Zufallsvariablen
ICU, Intelligent Cryptographic Unit
Intelligente Kryptographie-Einheit nennt Renesas den Krypto-Coprozessor in den MCUs.
IDPS, Intrusion Detection and Prevention System
Security-System zur Erkennung und Verhinderung von Eindring(versuch)en in ein System.
IDS, Intrusion Detection System
Das Angrifferkennungssystem detektiert Eindringlinge in Computersystemen oder Rechnernetzen. IDS kann eine Firewall ergänzen oder auch direkt auf dem zu überwachenden Computer laufen und so die Sicherheit von Netzwerken und Systemen erhöhen.
IP, Intellectual Property
Der Begriff geistiges Eigentum taucht in der digitalen und elektronischen Welt häufig im Zusammenhang mit Software- und Hardware-Entwicklung auf.
IP, Internet Protocol
Das in Computernetzen weit verbreitete Netzwerkprotokoll stellt die Grundlage des Internets dar. Es ist die Implementierung der Internetschicht des TCP/IP-Modells und entspricht der Vermittlungsschicht (Network Layer) des OSI-Modells. IP ist ein verbindungsloses Protokoll, das heißt bei den Kommunikationspartnern wird kein Zustand etabliert. Mittels IP-Adresse und Subnetzmaske (subnet mask) für IPv4, beziehungsweise Präfixlänge bei IPv6, können Computer innerhalb eines Netzwerkes in logische Einheiten, die Subnetze, gruppiert werden.
IPC, Industrial Personal Computer
Typische Bereiche für Industrie-PCs sind Prozessvisualisierung, Robotik, Industrieautomation, Test- und Prüfstände für die Industrie oder Sicherheitstechnik sowie die Qualitätssicherung. Ein IPC ist gegenüber dem Büro-PC robuster gegenüber Umwelteinflüssen wie auch elektromagnetischen Störungen und ist insgesamt weitgehend ausfallsicher ausgelegt. Konventionelle PCs haben infolge der Massenproduktion einen hohen Standardisierungsgrad – sowohl hinsichtlich Hardware als auch Software. Aufgrund der hohen Flexibilität lässt sich ein PC für die Bedienung, Programmierung, Visualisierung, Langzeit-Archivierung und Simulation von Prozessen einsetzen und darüber hinaus mit herkömmlichen industriellen Steuerungen oder SPS kombinieren.
ITE, Integrated Test Design Environment
Die Integrierte Umgebung für Test-Design und Test-Ausführung ist ein Produkt von Vector Informatik.
JIT, Just-in-Time
wird in der Fertigung verwendet (Anlieferung erst zu dem Zeitpunkt, an dem ein Teil benötigt wird), sowie in der Software-Entwicklung (JIT-Compiler übersetzen Code erst zur Laufzeit eines Programms)
JSON, Javascript Object Notation
JSON ist ein Datenformat in Textform für den Datenaustausch
KI, Künstliche Intelligenz
Künstliche Intelligenz (KI), im Englischen auch artificial intelligence (AI), ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch wird er in Forschung und Entwicklung verwendet. Hinsichtlich der bereits existierenden und der als Potenziale sich abzeichnenden Anwendungsbereiche gehört künstliche Intelligenz zu den wegweisenden Antriebskräften der Digitalen Revolution. Ein Fachbeitrag zum Thema Graph-Streaming-Processing bricht mit den traditionellen Methoden zur Entwicklung künstlicher Intelligenz (KI) und maschinellen Lernens (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und diagrammbasierten Task-Architektur vor.
LSB, Least Significant Bit
Das Bit, das die niedrigste Zweierpotenz repräsentiert, also in der Praxis unserer Schreibweise die ganz rechte (letzte) Stelle einer dualen Zahl.
MIL, Model-in-the-Loop
Test im Rahmen der modellbasierten Softwareentwicklung (Überbegriff: XiL)
MILS, Multiple Independent Levels of Security
siehe EURO-MILS
ML, Maschinelles Lernen
Der Oberbegriff steht für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Es lernt nicht die Beispiele auswendig, sondern erkennt Muster wie auch Gesetzmäßigkeiten in den Lerndaten und kann unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung; englisch overfitting). Aus dem weiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnoseverfahren, Erkennung von Kreditkartenbetrug, Aktienmarktanalysen, Klassifikation von Nukleotidsequenzen, Sprach- und Texterkennung sowie autonome Systeme. Ein Fachbeitrag zum Thema Graph-Streaming-Processing bricht mit den traditionellen Methoden zur Entwicklung künstlicher Intelligenz (KI) und maschinellen Lernens (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und daigrammbasierten Task-Architektur vor. Für die Software-Entwicklung im Bereich KI/ML sind vielfältige Framworks verfügbar: TensorFlow, CAFFE, PyTorch or TORCH, Apache Spark, Apache Singa, Microsoft CNTK, Amazon Machine Learning, Apache Mahout, Scikit-Learn, Accord.NET .
MTBF, Mean Time Between Failures
Mittlere Lebensdauer/Betriebsdauer zwischen Ausfällen von Bauelementen, Systemen und anderen Komponenten.
NLP, Natural Language Processing
Maschinelle Sprachverarbeitung im Rahmen der Computerlinguistik. NLP-Systeme dienen dazu, normale Sätze zu verstehen und zum Beispiel eine Aktion auszuführen: „System, schalte das Licht im Wohnzimmer ein!“
NLU, Natural Language Understanding
Wichtig für NLP ist natürlichsprachliches Sprachverständnis auch bei nicht perfekter Aussprache.
NN, Neural Network
Neuronales Netzwerk (im Rahmen der KI)
OOP, Objektorientierte Programmierung
OOP ist eine Methode zur Modularisierung von Programmen, die sich stark von der klassischen prozeduralen Programmierung unterscheidet. Ziel ist es, OOP-Software leichter zu warten und zu erweitern als prozedurale. Die strenge Modularisierung Unit-Tests vereinfacht Wiederverwendung von Softwareteilen und folgt dem Programmierparadigma der imperativen Programmierref="https://www.itwissen.info/Objektorientierte-Programmierung-object-oriented-programming-OOP.html" target="_blank">Objektorientierte Programmierung
unterteilt Programme in Einheiten, die Objekte genannt werden. Jedes Objekt besitzt einen Zustand, der durch dessen Eigenschaften (Objektattribute) beschrieben wird. Nur die im Objekt selbst vorhandenen Funktionen (Methoden genannt), können dessen Daten manipulieren und so den Zustand verändern. Objekte können anderen Objekten Botschaften senden (indem sie deren Methoden aufrufen) und sie damit auffordern, ihren Zustand zu ändern. Letztendlich bleibt es aber dem Objekt selbst überlassen, ob es der Aufforderung nachkommt. Somit befindet sich das Objekt immer in einem wohldefinierten, selbstkontrollierten Zustand.
OpenCL, Open Computing Language
Die Spezifikation wurde 2008 von der Khronos Group erstellt und erleichtert das Programmieren von hochgradig parallel arbeitenden Prozessoren (CPU), Grafikprozessoreinheiten (GPU) sowie Prozess-/Daten-Beschleunigern. OpenCL hilft große Mengen unabhängiger Daten mit einer hohen Rechenleistung effizient zu verarbeiten. In diesem Zusammenhang mit GPGPU (General Purpose Computation on Graphics Processing Unit) können Hochleistungs-GPUs mit unzähligen Prozessorkernen über die schlichte Aufgabe der Bidsynthese (Rendering) hinaus neue Hochleistungsberechnungen bewältigen, beispielsweise in neuronalen Netzen für KI (künstliche Intelligenz) und ML (Machine-Learning).
OSLC, Open Services for Lifecycle Collaboration
Offener Service für die Lebenszyklus-Zusammenarbeit ist eine technische Initiative, welche die Integration von Werkzeugen zur Software-Entwicklung spezifiziert. Es geht darum, die Arbeit von Werkzeuganbietern und -nutzern durch Standardisierung zu vereinfachen. Die OSLC-Initiative ist seit Juni 2013 Mitglied von OASIS, eine Organisation zur Weiterentwicklung von E-Business- und Webservice-Standards. Weitere Themengebiete von OSLC sind Application Lifecycle Management (ALM), Product-Lifecycle-Management (PLM), Betrieb von IT-Systemen und andere.
OSS, Open-Source Software
Software, deren Quelltext öffentlich und von Dritten eingesehen, geändert und genutzt werden kann. Open-Source-Software kann meistens kostenlos genutzt werden. Software kann sowohl von Einzelpersonen aus altruistischen Motiven zu Open-Source-Software gemacht werden wie auch von Organisationen oder Unternehmen, um Entwicklungskosten zu teilen oder Marktanteile zu gewinnen.
OT, Operational Technology
Bei OT handelt es sich um ein aus Hardware und Software bestehendes Paket, das einerseits Veränderungen erkennt und andererseits auch Veränderungen initiiert. Dies geschieht durch direkte Überwachung und/oder Steuerung von Prozessen, physikalischen Einheiten und Vorkommnissen im Gesamtsys
PCA, Principal Component Analysis; Hauptkomponentenanalyse
Verfahren aus der multivariaten Statistik zur Strukturierung, Vereinfachung und Veranschaulichung umfangreicher Datensätze.
PiP, Picture in Picture
Bild-im-Bild Darstellung
PKI, Public Key Infrastructure
System, um kryptografische Zertifikate auszustellen
PMHF, Probabilistic Metric for Random Hardware Failures
Im Rahmen der Funktionalen Sicherheit empfiehlt die Norm ISO26262 Methoden zur Ermittlung der Wahrscheinlichkeitsmetrik für zufällige Hardware-Ausfälle (PMHF), also eine Restfehlerrate. Das umfasst die Berechnung der Systemausfallraten; eine FTA (Failure Tree Analysis), die Bewertung des ASIL für die funktionale Sicherheit und Fallbeispiele.
PMT, Process Methods and Tools
Prozess-Methoden und Tools
PQC, Post-Quantum Cryptography
Verschlüsselungs-Algorithmen, die sogar Quanten-Computern standhalten sollen.
PUF, Physically Unclonable Functions
Physikalisch nicht klonbare Funktionen sind Hardwarestrukturen in einem Halbleiter, die dazu dienen, eine eindeutige Identifikation des Halbleiters zu ermöglichen oder Schlüssel für kryptografische Verfahren zu sichern. Chiphersteller wie Microchip (ehemals Microsemi), Intel und Maxim setzen auf dieses Verfahren.
QM, Qualitätsmanagement
Beispielsweise gemäß DIN EN ISO 9000
RCP, Rapid Control Prototyping
Rapid Control Prototyping bezeichnet eine rechnergestützte Entwurfsmethode zur schnellen Regelungs- und Steuerungsentwicklung. Typische Entwurfsschritte beim RCP umfassen die Spezifikation und Modellbildung des Zielgerätes, den Steuerungsentwurf im Modell und die Umsetzung auf dem Steuergerät sowie die Erprobung per Simulation und am realen System.
REST, Representational State Transfer
REST ist ein Programmierparadigma für verteilte Systeme.
RNN, Rekurrentes Neuronales Netzwerk
Rückgekoppeltes neuronales Netzwerk
RSA
Das nach seinen Entwicklern Rivest, Shamir und Adleman (RSA) benannte asymmetrische kryptographische Verschlüsselungsverfahren gilt bei sehr großen Schlüssellängen noch als sicher. Siehe auch AES. Das asymmetrische kryptographisches Verfahren kommt sowohl zum Verschlüsseln als auch beim digitalen Signieren zum Einsatz. Es verwendet ein Schlüsselpaar, bestehend aus einem privaten Schlüssel, der zum Entschlüsseln oder Signieren von Daten verwendet wird, und einem öffentlichen Schlüssel, mit dem man verschlüsselt oder Signaturen prüft. Der private Schlüssel wird geheim gehalten und kann nicht aus dem öffentlichen Schlüssel berechnet werden. Kryptographische Verfahren spielen auch beim Produkt und Know-How-Schutz in der intelligenten Produktion eine wichtige Rolle.
RTC, Real Time Clock
Die Echtzeituhr ein eigenständiger, akkugepufferter Digitaluhr-Chip, der einem Gerät oder Computersystem eine systemunabhängige Uhrzeit liefert. Im Wesentlichen ist das ein digitaler, quarzgetakteter Zähler, des Register bei Bedarf ausgelesen werden.
RTE, Runtime Environment
Eine Laufzeitumgebung oder auch Ausführungsumgebung stellt eine Plattform dar, auf der für ihr System codierte Anwenderprogramme ablaufen können. Für RTE-Architekturvorgaben für das Automobilumfeld macht Autosar.
RWT, Remote Wireless Tampering
Cyber-Angriff aus der Ferne auf ein elektronisches System über die Luftschnittstelle.
SAAM, Software Assurance Maturity Model
Reifegrad-Modell zur Sicherstellung der Software-Qualität
SaaS, Software as a service
Software als Dienstleistung im Rahmen des Cloud-Computing
SCADA, Supervisory Control and Data Acquisition
System zum Überwachen und Steuern von Prozessenin diversen technischen Umfeldern
SDK, Software Development Kit
Ein SDK unterstützt die Software-Entwickler mit Frameworks, Konfigurations-Spezifikationen, Applikations-Hinweisen, Code-Beispielen und diversen Programmier-Tools. Manche Elektronikhersteller zählen kleine Evaluierungs-Boards, einfache Programmieradapter, Debugger, bei Mobilfunk SIM-Karten-Kontingente, bei IoT-KITs Cloud-Kontingente dazu und legen liefern weiteres HW-Zubehör mit.
SOA, Sevice-Oriented Architectures
Serviceorientierte Architekturen (SOA)dienen in der IT-Industrie bereits seit Jahren dazu, verteilte Systeme zu beschreiben und zu strukturieren, aber das Thema gewinnt auch in der Automotive-Branche massiv an Bedeutung.
SOM, Self-Organizing Map; Selbstorganisierende Karte oder Kohonenkarte
Bezeichnet eine Art künstlicher neuronaler Netze; ihr Funktionsprinzip beruht auf der biologischen Erkenntnis, dass viele Strukturen im Gehirn eine lineare oder planare Topologie aufweisen.
SPM, Security Policy Management
SPOF, Single-Point-of-Failure
Unter einzelner Ausfallpunkt versteht man einen Bestandteil eines technischen Systems, dessen Ausfall den Ausfall des gesamten Systems nach sich zieht. Bei hochverfügbaren Systemen ist darauf zu achten, dass alle Komponenten eines Systems redundant ausgelegt sind. Dabei sollten Diversität und die örtlich verteilte Platzierung eine Rolle spielen. Kommen Systeme unterschiedlichen Aufbaus (beispielsweise verschiedener Hersteller) für die gleiche Aufgabe zum Einsatz, ist ein gleichzeitiger Ausfall aus einem einzelnen Grund unwahrscheinlicher. On-Premises-Cloudlösungen in der Medizin haben u.a. das Ziel große Datenmengen beispielsweisehref="https://www.all-electronics.de/abkuerzungsverzeichnis/ct/" target="_blank">CT, MRT, PET sicher vor Zerstörung und Diebstahl zu speichern.
TCO, Total Cost of Ownership
Total Cost of Ownership (TCO, Gesamtkosten des Betriebs) ist ein Abrechnungsverfahren, das Verbrauchern und Unternehmen helfen soll, alle anfallenden Kosten von Investitionsgütern (wie beispielsweise Software und Hardware in der IT) abzuschätzen.
TLS, Transport Layer Security
Ein Verschlüsselungsprotokoll zur sicheren Übertragung von Daten, beispielsweise über das Internet.
TRA, Threat and Risk Analysis
TRA ist eine Angriffs- und Risiko-Analyse und das Security-Pendant zu HARA
TRNG, True Random Number Generator
Echter Zufallsgenerator
TTM, Time-to-Market
Die Dauer von der Produktentwicklung bis zur Platzierung des Produkts am Markt. In dieser Zeit entstehen für das Produkt Kosten – es erwirtschaftet aber keinen Umsatz. Mehr über die Time-to-Market finden Sie hier.
UI, User Interface
Über die Anwenderschnittstelle tritt ein Mensch mit einer Maschine in Interaktion (siehe HMI). Am PC sind das beispielsweis sämtliche Ein- und Ausgabegeräte (Tastatur, Bildschirm etc.). Eine Weiterentwicklung ist die grafische Anwenderschnittstelle (GUI).
UML, Unified Modeling Language
Unified Modeling Language
VM, Virtual Machine (bei Software)
Das kann beispielsweise ein Betriebssystem sein, das als gekapselter Prozess innerhalb eines andern Systems läuft oder auf einem Teilbereich eines Servers.
WORM, Write Once Read Multiple
WORM-Elemente sind manipulationssichere Festwert-Datenspeicher, die sich nur einmal beschreiben, aber beliebig oft auslesen lassen. Ähnlich wie beim PROM (Programable Read Only Memory) schließt eine Sicherheitsvorkehrung das Löschen, Überschreiben und Ändern von Daten auf einem Speichermedium (Halbleiter, CD) dauerhaft aus. WORM lässt sich unterschiedlich umsetzen: Beim Hardware-WORM (True-WORM) ist die Write-Once-Eigenschaft physikalisch gegeben, die systemische Variante erreicht das per Adressierung oder Verwaltung durch den internen Controller. Als reine Softwarefunktionalität kann Soft-WORM in einem Netzwerkspeichersystem realisiert sein.
XML, Extensible Mark-up Language
XML ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten im Format einer Textdatei, die sowohl von Menschen als auch von Maschinen lesbar ist.
ZETA, Zero Day Exploit Attack
Eine solcher Angriff auf vernetzte IT-Systeme erfolgt über eine Software-Schwachstelle unmittelbar (am selben Tag) nach ihrer Entdeckung. In diesem Fall wird die Schwachstelle ausgenutzt, bevor sie vom Softwarehersteller durch einen Fix geschlossen werden kann. Besonders riskant sind ZETAs im Bereich vernetzer und autonomer Fahrzeuge.