Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Lexikalische Analyse

Index Lexikalische Analyse

Lexikalische Analyse ist in der Informatik die Zerlegung einer Zeichenkette (z. B. Quelltext) in eine Folge von logisch zusammengehörigen Einheiten, sogenannte Token.

19 Beziehungen: Berry-Sethi-Verfahren, C (Programmiersprache), C++, Compiler, Computerprogramm, Endlicher Automat, Freie Software, Informatik, Java (Programmiersprache), Lex (Informatik), Parser, PHP, Potenzmengenkonstruktion, Quelltext, Reguläre Sprache, Token (Übersetzerbau), Unix, Wortschatz, Zeichenkette.

Berry-Sethi-Verfahren

Beim Berry-Sethi-Verfahren (nach Gérard Berry und Ravi Sethi; auch Glushkov-Konstruktion, nach Wiktor Michailowitsch Gluschkow) handelt es sich um einen Algorithmus zur Überführung eines regulären Ausdrucks in einen nichtdeterministischen endlichen Automaten.

Neu!!: Lexikalische Analyse und Berry-Sethi-Verfahren · Mehr sehen »

C (Programmiersprache)

C ist eine imperative und prozedurale Programmiersprache, die der Informatiker Dennis Ritchie in den frühen 1970er Jahren an den Bell Laboratories entwickelte.

Neu!!: Lexikalische Analyse und C (Programmiersprache) · Mehr sehen »

C++

C++ ist eine von der ISO genormte Programmiersprache.

Neu!!: Lexikalische Analyse und C++ · Mehr sehen »

Compiler

Ein Compiler (auch Kompilierer; von ‚zusammentragen‘ bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann.

Neu!!: Lexikalische Analyse und Compiler · Mehr sehen »

Computerprogramm

Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw.

Neu!!: Lexikalische Analyse und Computerprogramm · Mehr sehen »

Endlicher Automat

Abbildung 1: Beispiel eines EA, der eine Tür beschreibt Ein endlicher Automat (EA, auch Zustandsmaschine, Zustandsautomat;, FSM) ist ein Modell eines Verhaltens, bestehend aus Zuständen, Zustandsübergängen und Aktionen.

Neu!!: Lexikalische Analyse und Endlicher Automat · Mehr sehen »

Freie Software

Concept-Map rund um Freie Software Freie Software (freiheitsgewährende Software, oder auch libre software) bezeichnet Software, die die Freiheit von Computernutzern in den Mittelpunkt stellt.

Neu!!: Lexikalische Analyse und Freie Software · Mehr sehen »

Informatik

Lambda lc.svg Sorting quicksort anim frame.svg Utah teapot simple 2.png 3-Tasten-Maus Microsoft.jpg Bei der Informatik handelt es sich um die Wissenschaft von der systematischen Darstellung, Speicherung, Verarbeitung und Übertragung von Daten, wobei besonders die automatische Verarbeitung mit Computern betrachtet wird.

Neu!!: Lexikalische Analyse und Informatik · Mehr sehen »

Java (Programmiersprache)

Java ist eine objektorientierte Programmiersprache und eine eingetragene Marke des Unternehmens Sun Microsystems, welches 2010 von Oracle aufgekauft wurde.

Neu!!: Lexikalische Analyse und Java (Programmiersprache) · Mehr sehen »

Lex (Informatik)

Das Programm Lex wird im Übersetzerbau benutzt, um Scanner für die lexikalische Analyse von Quelltexten zu erstellen.

Neu!!: Lexikalische Analyse und Lex (Informatik) · Mehr sehen »

Parser

Ein Parser („analysieren“, bzw. „Teil“; im Deutschen gelegentlich auch Zerteiler) ist ein Computerprogramm, das in der Informatik für die Zerlegung und Umwandlung einer Eingabe in ein für die Weiterverarbeitung geeigneteres Format zuständig ist.

Neu!!: Lexikalische Analyse und Parser · Mehr sehen »

PHP

PHP (rekursives Akronym und Backronym für „PHP: '''H'''ypertext '''P'''reprocessor“, ursprünglich „Personal '''H'''ome '''P'''age Tools“) ist eine Skriptsprache mit einer an C und Perl angelehnten Syntax, die hauptsächlich zur Erstellung dynamischer Webseiten oder Webanwendungen verwendet wird.

Neu!!: Lexikalische Analyse und PHP · Mehr sehen »

Potenzmengenkonstruktion

Die Potenzmengenkonstruktion (Myhill-Konstruktion oder auch Teilmengenkonstruktion) ist ein Verfahren, das einen nichtdeterministischen endlichen Automaten (NEA) in einen äquivalenten deterministischen endlichen Automaten (DEA) umwandelt.

Neu!!: Lexikalische Analyse und Potenzmengenkonstruktion · Mehr sehen »

Quelltext

siehe eigene Artikel. Quelltext, auch Quellcode oder unscharf Programmcode genannt, ist in der Informatik der für Menschen lesbare, in einer Programmiersprache geschriebene Text eines Computerprogrammes.

Neu!!: Lexikalische Analyse und Quelltext · Mehr sehen »

Reguläre Sprache

In der theoretischen Informatik ist eine reguläre Sprache oder reguläre Menge oder erkennbare Sprache eine formale Sprache, die einigen Einschränkungen unterliegt.

Neu!!: Lexikalische Analyse und Reguläre Sprache · Mehr sehen »

Token (Übersetzerbau)

Ein Token (Art.: „das“; Pl.: ‚Tokens‘) ist eine Zeichenkette, der von einer formalen Grammatik ein Typ zugewiesen wird.

Neu!!: Lexikalische Analyse und Token (Übersetzerbau) · Mehr sehen »

Unix

Unix-Befehls ls -l Unix ist ein Mehrbenutzer-Betriebssystem für Computer.

Neu!!: Lexikalische Analyse und Unix · Mehr sehen »

Wortschatz

Als Wortschatz (Mehrzahl Wortschätze) auch Vokabular, Lexikon oder Lexik genannt, bezeichnet man die Gesamtheit aller Wörter.

Neu!!: Lexikalische Analyse und Wortschatz · Mehr sehen »

Zeichenkette

Eine Zeichenkette, Zeichenfolge, Zeichenreihe oder ein String (aus dem Englischen) ist in der Informatik eine endliche Folge von Zeichen (z. B. Buchstaben, Ziffern, Sonderzeichen und Steuerzeichen) aus einem definierten Zeichensatz.

Neu!!: Lexikalische Analyse und Zeichenkette · Mehr sehen »

Leitet hier um:

Lexikalischer Scanner, Tokenizer.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »