Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Tokenisierung

Index Tokenisierung

Tokenisierung bezeichnet in der Computerlinguistik die Segmentierung eines Textes in Einheiten der Wortebene (manchmal auch Sätze, Absätze o. Ä.). Die Tokenisierung des Textes ist Voraussetzung für dessen Weiterverarbeitung, beispielsweise zur syntaktischen Analyse durch Parser, im Textmining oder Information Retrieval.

16 Beziehungen: Affective Computing, Algorithmic Contract Types Unified Standards, Apache OpenNLP, Computerlinguistik, Den Danske Ordbog, GSSAPI, International Token Identification Number, Lesbarkeitsindex, Michaela Hönig, N-Gramm, Pseudonymisierungsgateway-Server, Text Engineering Software Laboratory, Text Mining, Token, Tokenbasierte Kompression, Wertpapierhandel.

Affective Computing

Affective Computing (auch: Emotions-KI, Sentimentanalyse) ist eine Technologie durch Einsatz von Künstlicher Intelligenz menschliche Affekte und Emotionen durch Computer zu erkennen.

Neu!!: Tokenisierung und Affective Computing · Mehr sehen »

Algorithmic Contract Types Unified Standards

Algorithmic Contract Types Unified Standards, abgekürzt ACTUS, definiert eine Reihe lizenzfreier, offener Standards zur Darstellung von Finanzverträgen.

Neu!!: Tokenisierung und Algorithmic Contract Types Unified Standards · Mehr sehen »

Apache OpenNLP

Die Apache OpenNLP Bibliothek ist ein auf maschinellem Lernen basierendes Toolkit in der Programmiersprache Java für die Verarbeitung von natürlichsprachlichem Text im Bereich Computerlinguistik oder Natural Language Processing (NLP).

Neu!!: Tokenisierung und Apache OpenNLP · Mehr sehen »

Computerlinguistik

Die Computerlinguistik (CL) oder linguistische Datenverarbeitung (LDV) untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann.

Neu!!: Tokenisierung und Computerlinguistik · Mehr sehen »

Den Danske Ordbog

Den Danske Ordbog (auch DDO; dänisch für Das Dänische Wörterbuch; sprich in etwa:; dänisch den „der, die“ – bestimmter Artikel des Utrum Nominativ Singular vor Adjektiven –, danske „dänische“, ord „Wort“ und bog „Buch“) ist ein sechsbändiges Werk, das von 2003 bis 2005 als Erstausgabe in Dänemark erschien und seit 2009 im Web frei zugänglich ist.

Neu!!: Tokenisierung und Den Danske Ordbog · Mehr sehen »

GSSAPI

Das Generic Security Service Application Program Interface (GSSAPI, auch GSS-API) ist eine Programmierschnittstelle für Anwendungen, die auf Security Devices zugreifen.

Neu!!: Tokenisierung und GSSAPI · Mehr sehen »

International Token Identification Number

Die International Token Identification Number (ITIN) ist ein offener Marktstandard für die sichere Identifizierung von kryptografischen Token und deren Verwendung in DeFi und NFTs über Blockchains hinweg.

Neu!!: Tokenisierung und International Token Identification Number · Mehr sehen »

Lesbarkeitsindex

Ein Lesbarkeitsindex ist eine Formel oder ein Verfahren, mit dem versucht wird, die Lesbarkeit eines Textes formal zu bestimmen.

Neu!!: Tokenisierung und Lesbarkeitsindex · Mehr sehen »

Michaela Hönig

Michaela Hönig (2017) Michaela Hönig (* 1974 in Limburg an der Lahn) ist eine deutsche Wirtschaftswissenschaftlerin und Lehrbeauftragte für Allgemeine Betriebswirtschaftslehre an der Frankfurt University of Applied Sciences.

Neu!!: Tokenisierung und Michaela Hönig · Mehr sehen »

N-Gramm

Ein N-Gramm, manchmal auch Q-Gramm genannt, ist das Ergebnis der Zerlegung eines Textes in Fragmente.

Neu!!: Tokenisierung und N-Gramm · Mehr sehen »

Pseudonymisierungsgateway-Server

Ein Pseudonymisierungsgateway-Server ist im Datenschutzrecht bzw.

Neu!!: Tokenisierung und Pseudonymisierungsgateway-Server · Mehr sehen »

Text Engineering Software Laboratory

Tesla (Text Engineering Software Laboratory, deutsch Labor zur Verarbeitung von Texten) ist eine Software, mit der reproduzierbare Experimente auf textuellen Daten durchgeführt werden können.

Neu!!: Tokenisierung und Text Engineering Software Laboratory · Mehr sehen »

Text Mining

Text Mining, seltener auch Textmining, Text Data Mining oder Textual Data Mining, ist ein Bündel von Algorithmus-basierten Analyseverfahren zur Entdeckung von Bedeutungsstrukturen aus un- oder schwachstrukturierten Textdaten.

Neu!!: Tokenisierung und Text Mining · Mehr sehen »

Token

Token (englisch „Zeichen“) steht für.

Neu!!: Tokenisierung und Token · Mehr sehen »

Tokenbasierte Kompression

Die tokenbasierte Kompression (englisch token-based compression) ist eine Methode, um bei der Datenverarbeitung Speicherplatz zu sparen.

Neu!!: Tokenisierung und Tokenbasierte Kompression · Mehr sehen »

Wertpapierhandel

Als Wertpapierhandel (oder Effektenhandel) wird im Finanzwesen der Handel mit Effekten bezeichnet, der als Börsenhandel oder außerbörslicher Handel stattfinden kann.

Neu!!: Tokenisierung und Wertpapierhandel · Mehr sehen »

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »