Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Parallele Programmierung

Index Parallele Programmierung

Parallele Programmierung ist ein Programmierparadigma.

71 Beziehungen: Amdahlsches Gesetz, Asynchrone Kommunikation, Bildungsorientierte Programmiersprache, C (Programmiersprache), C++, Communicating Sequential Processes, Compiler, Computerprogramm, Cray, Daten, Deadlock (Informatik), Ericsson, Erlang (Programmiersprache), Fraud, Go (Programmiersprache), Graphpartitionierung, Hyper-Threading, IBM, Integrität (Informationssicherheit), Joe Armstrong (Informatiker), Kausalität, Maschinensprache, Massively Parallel Processing, Mehrkernprozessor, Message Passing Interface, Mikrocode, Monitor (Informatik), Mozilla Foundation, Multitasking, Multithreading, Mutex, Nebenläufigkeit, Newsqueak, Occam, OpenMP, Out-of-order execution, Paralleler Algorithmus, Parallelrechner, Programmierparadigma, Programmiersprache, Prozess (Informatik), Prozesskontext, Prozessor, Prozessorkern, Prozessorzeit, Prozesssynchronisation, Quelltext, Rechnerverbund, Rendezvous (Informatik), Ressource, ..., Rust (Programmiersprache), Scratch (Programmiersprache), Semaphor (Informatik), Sequentialisierung, Simultaneous Multithreading, Softwareentwickler, Speicherzugriff, Symmetrisches Multiprozessorsystem, Synchrone Kommunikation, Synchronisation, Thread (Informatik), Time-Sharing (Informatik), Transaktionssystem, Unified Parallel C, Unterprogramm, Vektorprozessor, Verteiltes System, Visuelle Programmiersprache, Warteschlange (Datenstruktur), Wettlaufsituation, X10 (Programmiersprache). Erweitern Sie Index (21 mehr) »

Amdahlsches Gesetz

Geschwindigkeitsgewinn eines parallelisierbaren Problems durch parallel arbeitende Prozessoren Das Amdahlsche Gesetz (benannt 1967 nach Gene Amdahl) ist ein Modell in der Informatik über die Beschleunigung von Programmen durch parallele Ausführung.

Neu!!: Parallele Programmierung und Amdahlsches Gesetz · Mehr sehen »

Asynchrone Kommunikation

Unter asynchroner Kommunikation versteht man in der Informatik und Netztechnik einen Modus der Kommunikation, bei dem das Senden und Empfangen von Daten zeitlich versetzt und ohne Blockieren des Prozesses durch bspw.

Neu!!: Parallele Programmierung und Asynchrone Kommunikation · Mehr sehen »

Bildungsorientierte Programmiersprache

Scratch für Kinder an einer E-Tafel Bildungsorientierte Programmiersprachen sind als Lerninstrumente für Programmieranfänger konzipiert.

Neu!!: Parallele Programmierung und Bildungsorientierte Programmiersprache · Mehr sehen »

C (Programmiersprache)

C ist eine imperative und prozedurale Programmiersprache, die der Informatiker Dennis Ritchie in den frühen 1970er Jahren an den Bell Laboratories entwickelte.

Neu!!: Parallele Programmierung und C (Programmiersprache) · Mehr sehen »

C++

C++ ist eine von der ISO genormte Programmiersprache.

Neu!!: Parallele Programmierung und C++ · Mehr sehen »

Communicating Sequential Processes

Communicating Sequential Processes (CSP) ist eine von Tony Hoare an der Universität Oxford entwickelte Prozessalgebra zur Beschreibung von Interaktion zwischen kommunizierenden Prozessen.

Neu!!: Parallele Programmierung und Communicating Sequential Processes · Mehr sehen »

Compiler

Ein Compiler (auch Kompilierer; von ‚zusammentragen‘ bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann.

Neu!!: Parallele Programmierung und Compiler · Mehr sehen »

Computerprogramm

Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw.

Neu!!: Parallele Programmierung und Computerprogramm · Mehr sehen »

Cray

Cray Inc. ist ein Unternehmen, das 1972 unter dem Namen Cray Research von Seymour Cray gegründet wurde.

Neu!!: Parallele Programmierung und Cray · Mehr sehen »

Daten

Daten bezeichnet als Plural von Datum Fakten, Zeitpunkte oder kalendarische Zeitangaben.

Neu!!: Parallele Programmierung und Daten · Mehr sehen »

Deadlock (Informatik)

Deadlock oder Verklemmung bezeichnet in der Informatik einen Zustand, bei dem eine zyklische Wartesituation zwischen mehreren Prozessen auftritt, wobei jeder beteiligte Prozess auf die Freigabe von mindestens einem Betriebsmittel (einer Ressource) wartet, das ein anderer beteiligter Prozess bereits exklusiv belegt hat.

Neu!!: Parallele Programmierung und Deadlock (Informatik) · Mehr sehen »

Ericsson

Logo ca. 1894 Logo ca. 1940 Gründeranteil der französischen Soc. des Téléphones Ericsson von 1911 Telefonaktiebolaget LM Ericsson (Ericsson) ist eine schwedische Aktiebolag mit Sitz in Stockholm.

Neu!!: Parallele Programmierung und Ericsson · Mehr sehen »

Erlang (Programmiersprache)

Softwarepaket LAMP dar. Erlang ist eine Programmiersprache, die bei Ericsson von Joe Armstrong und anderen entwickelt wurde.

Neu!!: Parallele Programmierung und Erlang (Programmiersprache) · Mehr sehen »

Fraud

Fraud hat verschiedene Bedeutungen.

Neu!!: Parallele Programmierung und Fraud · Mehr sehen »

Go (Programmiersprache)

Go (auch Golang) ist eine kompilierbare Programmiersprache, die Nebenläufigkeit und automatische Speicherbereinigung unterstützt.

Neu!!: Parallele Programmierung und Go (Programmiersprache) · Mehr sehen »

Graphpartitionierung

Partitionierter Graph (2-partit) Graphpartitionierung bezeichnet die Anwendung geeigneter Algorithmen zur Berechnung von Graphpartitionen (vgl. Schnitt (Graphentheorie)) mit gewünschten Eigenschaften.

Neu!!: Parallele Programmierung und Graphpartitionierung · Mehr sehen »

Hyper-Threading

Hyper-Threading Technology (kurz HTT, üblicherweise nur Hyper-Threading und dann HT genannt) ist eine spezielle Implementierung von hardwareseitigem Multithreading in Intel-Prozessoren, die auch von AMD übernommen wurde.

Neu!!: Parallele Programmierung und Hyper-Threading · Mehr sehen »

IBM

Die International Business Machines Corporation (IBM) ist ein börsennotiertes US-amerikanisches IT- und Beratungsunternehmen mit Sitz in Armonk im Bundesstaat New York.

Neu!!: Parallele Programmierung und IBM · Mehr sehen »

Integrität (Informationssicherheit)

Integrität (von ‚Unversehrtheit‘, ‚Reinheit‘, ‚Unbescholtenheit‘) ist neben Verfügbarkeit und Vertraulichkeit eines der drei klassischen Ziele der Informationssicherheit.

Neu!!: Parallele Programmierung und Integrität (Informationssicherheit) · Mehr sehen »

Joe Armstrong (Informatiker)

Armstrong (2009) Joseph „Joe“ Leslie Armstrong (* 27. Dezember 1950 in Bournemouth, England; † 20. April 2019) war ein britischer Informatiker mit Arbeitsgebiet fehlertolerante, verteilte Systeme.

Neu!!: Parallele Programmierung und Joe Armstrong (Informatiker) · Mehr sehen »

Kausalität

Kausalität (von, „Ursache“, und causalis, „ursächlich, kausal“) ist die Beziehung zwischen Ursache und Wirkung.

Neu!!: Parallele Programmierung und Kausalität · Mehr sehen »

Maschinensprache

Eine Maschinensprache, wie sie bei Maschinencode bzw.

Neu!!: Parallele Programmierung und Maschinensprache · Mehr sehen »

Massively Parallel Processing

Der Begriff Massenparallelrechner (MPR) oder englisch Massively Parallel Processing (MPP) bezeichnet in der Informatik die Verteilung einer Aufgabe auf mehrere Hauptprozessoren, die jeweils auch über eigenen Arbeitsspeicher verfügen können.

Neu!!: Parallele Programmierung und Massively Parallel Processing · Mehr sehen »

Mehrkernprozessor

Der Begriff Mehrkernprozessor (abgeleitet vom englischen Begriff auch Multicore-Prozessor oder Multikernprozessor) bezeichnet einen Mikroprozessor mit mehr als einem vollständigen Prozessorkern in einem einzigen Chip.

Neu!!: Parallele Programmierung und Mehrkernprozessor · Mehr sehen »

Message Passing Interface

Message Passing Interface (MPI) ist ein Standard, der den Nachrichtenaustausch bei parallelen Berechnungen auf verteilten Computersystemen beschreibt.

Neu!!: Parallele Programmierung und Message Passing Interface · Mehr sehen »

Mikrocode

Der Mikrocode ist der Binärcode eines Mikrobefehls oder einer Mikrobefehlssequenz eines Mikroprogramms.

Neu!!: Parallele Programmierung und Mikrocode · Mehr sehen »

Monitor (Informatik)

Ein Monitor in der Informatik ist ein programmiersprachliches Konzept zur Synchronisation von Zugriffen zeitlich verschränkt oder parallel laufender Prozesse oder Threads auf gemeinsam genutzten Datenstrukturen oder Ressourcen.

Neu!!: Parallele Programmierung und Monitor (Informatik) · Mehr sehen »

Mozilla Foundation

| Leitung.

Neu!!: Parallele Programmierung und Mozilla Foundation · Mehr sehen »

Multitasking

Der Begriff Multitasking (engl.) bzw.

Neu!!: Parallele Programmierung und Multitasking · Mehr sehen »

Multithreading

Multithreading (auch Nebenläufigkeit, Mehrsträngigkeit oder Mehrfädigkeit genannt) bezeichnet in der Informatik das gleichzeitige (oder quasi-gleichzeitige) Abarbeiten mehrerer Threads (Ausführungsstränge) innerhalb eines einzelnen Prozesses oder eines Tasks (ein Anwendungsprogramm).

Neu!!: Parallele Programmierung und Multithreading · Mehr sehen »

Mutex

Der Begriff wechselseitiger Ausschluss bzw.

Neu!!: Parallele Programmierung und Mutex · Mehr sehen »

Nebenläufigkeit

Beim Philosophenproblem (engl. ''Dining Philosophers Problem'') handelt es sich um ein Fallbeispiel aus dem Bereich der Theoretischen Informatik. Die Nebenläufigkeit, mitunter auch Parallelität genannt, ist in der Informatik die Eigenschaft eines Systems, mehrere Aufgaben, Berechnungen, Anweisungen oder Befehle gleichzeitig ausführen zu können.

Neu!!: Parallele Programmierung und Nebenläufigkeit · Mehr sehen »

Newsqueak

Newsqueak ist eine parallele Programmiersprache zum Programmieren von Anwendungsprogrammen für Fenstersysteme.

Neu!!: Parallele Programmierung und Newsqueak · Mehr sehen »

Occam

Occam ist eine imperative, parallele Programmiersprache, die auf Communicating Sequential Processes aufbaut.

Neu!!: Parallele Programmierung und Occam · Mehr sehen »

OpenMP

OpenMP (Open Multi-Processing) ist eine seit 1997 gemeinschaftlich von mehreren Hardware- und Compilerherstellern entwickelte Programmierschnittstelle (API) für die Shared-Memory-Programmierung in C++, C und Fortran auf Multiprozessor-Computern.

Neu!!: Parallele Programmierung und OpenMP · Mehr sehen »

Out-of-order execution

Out-of-order execution (für etwa Ausführung in anderer Reihenfolge) bezeichnet die Möglichkeit, Maschinenbefehle in den Ausführungseinheiten eines (meist superskalaren) Prozessors in einer anderen Reihenfolge auszuführen als sie im Programmcode stehen, ohne allerdings das Ergebnis zu verändern.

Neu!!: Parallele Programmierung und Out-of-order execution · Mehr sehen »

Paralleler Algorithmus

Ein paralleler Algorithmus ist ein Algorithmus, welcher zum Beispiel ein Problem der Komplexitätsklasse NC (Nick’s Class nach Nick Pippenger) in polynomieller Zeit lösen bzw.

Neu!!: Parallele Programmierung und Paralleler Algorithmus · Mehr sehen »

Parallelrechner

Parallelrechner, ein Cray-2 (1986) Ein Parallelrechner ist ein Rechner, in dem Rechenoperationen gleichzeitig unter anderem auf mehreren Haupt- oder Grafikprozessoren durchgeführt werden können.

Neu!!: Parallele Programmierung und Parallelrechner · Mehr sehen »

Programmierparadigma

Ein Programmierparadigma ist ein fundamentaler Programmierstil.

Neu!!: Parallele Programmierung und Programmierparadigma · Mehr sehen »

Programmiersprache

Quelltext eines Programms in der Programmiersprache C++. Scratch. Eine Programmiersprache ist eine formale Sprache zur Formulierung von Datenstrukturen und Algorithmen, d. h.

Neu!!: Parallele Programmierung und Programmiersprache · Mehr sehen »

Prozess (Informatik)

Ein Prozess (auch Task oder Programminstanz genannt) ist ein Computerprogramm zur Laufzeit.

Neu!!: Parallele Programmierung und Prozess (Informatik) · Mehr sehen »

Prozesskontext

Als Prozesskontext wird in der Informatik, insbesondere bei der Konzeption von Betriebssystemen, die gesamte Information, die für den Ablauf und die Verwaltung von Prozessen von Bedeutung ist, bezeichnet.

Neu!!: Parallele Programmierung und Prozesskontext · Mehr sehen »

Prozessor

Die''“ eines Intel 80486DX2 Ein Computer-Prozessor ist ein (meist stark verkleinertes und meist frei) programmierbares Rechenwerk, also eine elektronische Schaltung, die gemäß übergebenen Befehlen Aktionen ausführt, wie andere elektronische Schaltungen und Mechanismen zu steuern.

Neu!!: Parallele Programmierung und Prozessor · Mehr sehen »

Prozessorkern

Als Prozessorkern oder auch Rechenkern wird der zentrale Teil eines Rechenwerkes oder eines Mikroprozessors bezeichnet.

Neu!!: Parallele Programmierung und Prozessorkern · Mehr sehen »

Prozessorzeit

top. Die Prozessorzeit bezeichnet die gemessene Zeit, während der ein Prozess oder Thread seit seinem Start tatsächlich von einem Prozessor ausgeführt wurde.

Neu!!: Parallele Programmierung und Prozessorzeit · Mehr sehen »

Prozesssynchronisation

In der Programmierung versteht man unter Prozesssynchronisation (oder kurz einfach Synchronisation) die Koordinierung des zeitlichen Ablaufs mehrerer nebenläufiger Prozesse bzw.

Neu!!: Parallele Programmierung und Prozesssynchronisation · Mehr sehen »

Quelltext

siehe eigene Artikel. Quelltext, auch Quellcode oder unscharf Programmcode genannt, ist in der Informatik der für Menschen lesbare, in einer Programmiersprache geschriebene Text eines Computerprogrammes.

Neu!!: Parallele Programmierung und Quelltext · Mehr sehen »

Rechnerverbund

NASA-Computercluster Ein Rechnerverbund oder Computercluster, meist einfach Cluster genannt (vom Englischen für „Rechner-Schwarm“, „-Gruppe“ oder „-Haufen“), bezeichnet eine Anzahl von vernetzten Computern.

Neu!!: Parallele Programmierung und Rechnerverbund · Mehr sehen »

Rendezvous (Informatik)

In der Informatik bezeichnet ein Rendezvous eine Variante der synchronen Interprozesskommunikation.

Neu!!: Parallele Programmierung und Rendezvous (Informatik) · Mehr sehen »

Ressource

Eine Ressource (von) ist Mittel, Gegebenheit wie auch Merkmal bzw.

Neu!!: Parallele Programmierung und Ressource · Mehr sehen »

Rust (Programmiersprache)

Rust ist eine Multiparadigmen-Systemprogrammiersprache, die von der Open-Source-Community entwickelt wurde und unter anderem von Mozilla Research gesponsert wird.

Neu!!: Parallele Programmierung und Rust (Programmiersprache) · Mehr sehen »

Scratch (Programmiersprache)

Scratch ist eine erstmals 2007 veröffentlichte bildungsorientierte visuelle Programmiersprache für Kinder und Jugendliche inklusive ihrer Entwicklungsumgebung und der eng verknüpften Online-Community-Plattform.

Neu!!: Parallele Programmierung und Scratch (Programmiersprache) · Mehr sehen »

Semaphor (Informatik)

Ein Semaphor (von und φέρειν pherein ‚tragen‘ – also etwa „Signalgeber“) ist eine Datenstruktur, die aus einer Ganzzahl und den atomaren Nutzungsoperationen „Reservieren/Probieren“ und „Freigeben“ besteht.

Neu!!: Parallele Programmierung und Semaphor (Informatik) · Mehr sehen »

Sequentialisierung

Unter Sequentialisierung oder Sequenzialisierung versteht man das Schaffen einer Ordnung für eine Menge von Aktionen entlang der Kausalordnung, die z. B.

Neu!!: Parallele Programmierung und Sequentialisierung · Mehr sehen »

Simultaneous Multithreading

Der Begriff Simultaneous Multithreading (kurz SMT; etwa „simultaner Mehrfadenbetrieb“) bezeichnet die Fähigkeit eines Mikroprozessors, mittels getrennter Pipelines und/oder zusätzlicher Registersätze mehrere Threads gleichzeitig auszuführen.

Neu!!: Parallele Programmierung und Simultaneous Multithreading · Mehr sehen »

Softwareentwickler

Ein Softwareentwickler ist eine Person, die an der Erstellung einer Software mitwirkt.

Neu!!: Parallele Programmierung und Softwareentwickler · Mehr sehen »

Speicherzugriff

Als Speicherzugriff bezeichnet man in der Datenverarbeitung und Informatik den Datenaustausch mit einem Datenspeicher oder einer Datenstruktur.

Neu!!: Parallele Programmierung und Speicherzugriff · Mehr sehen »

Symmetrisches Multiprozessorsystem

Ein symmetrisches Multiprozessorsystem (SMP) ist in der Informationstechnologie eine Multiprozessor-Architektur, bei der zwei oder mehr identische Prozessoren einen gemeinsamen Adressraum besitzen.

Neu!!: Parallele Programmierung und Symmetrisches Multiprozessorsystem · Mehr sehen »

Synchrone Kommunikation

Unter synchroner Kommunikation versteht man in der Informatik und Netzwerktechnik einen Modus der Kommunikation, bei dem die Kommunikationspartner (Prozesse) beim Senden oder beim Empfangen von Daten immer synchronisieren, also warten (blockieren), bis die Kommunikation abgeschlossen ist.

Neu!!: Parallele Programmierung und Synchrone Kommunikation · Mehr sehen »

Synchronisation

Einfache Synchronisation der Zeitmessung durch ''Uhrenvergleich'' Synchronisation (auch Synchronisierung; von) bezeichnet – besonders in der Netzplantechnik und Prozesstechnik – das zeitliche Abgleichen von Vorgängen.

Neu!!: Parallele Programmierung und Synchronisation · Mehr sehen »

Thread (Informatik)

In der Informatik bezeichnet Thread (‚Faden‘, ‚Strang‘) – auch Aktivitätsträger oder leichtgewichtiger Prozess genannt – einen Ausführungsstrang oder eine Ausführungsreihenfolge in der Abarbeitung eines Programms.

Neu!!: Parallele Programmierung und Thread (Informatik) · Mehr sehen »

Time-Sharing (Informatik)

Time-Sharing war der erste konzeptionelle Ansatz in der Computertechnologie, mehrere Benutzer an einem Computer gleichzeitig arbeiten zu lassen (Mehrbenutzersystem), indem sie sich die Rechenzeit des einzigen vorhandenen Prozessors teilten.

Neu!!: Parallele Programmierung und Time-Sharing (Informatik) · Mehr sehen »

Transaktionssystem

Ein Transaktionssystem ist in der Informatik (genauer in der Datenbanktheorie) ein Teilsystem, das Transaktionen auf einem Datenbestand ausführt.

Neu!!: Parallele Programmierung und Transaktionssystem · Mehr sehen »

Unified Parallel C

Unified Parallel C (UPC) ist eine parallele Erweiterung der Programmiersprache C für den Einsatz in Hochleistungsrechnern.

Neu!!: Parallele Programmierung und Unified Parallel C · Mehr sehen »

Unterprogramm

Grundprinzip eines Unterprogramms Ein Unterprogramm ist ein Teil eines Computerprogramms, das eine bestimmte Funktionalität bereitstellt.

Neu!!: Parallele Programmierung und Unterprogramm · Mehr sehen »

Vektorprozessor

Prozessorplatine eines CRAY-YMP-Vektor-Computers Vektorprozessoren (auch Vektorrechner oder Array-Prozessoren genannt) führen eine Berechnung gleichzeitig auf vielen Daten (in einem Vektor bzw. Array) aus.

Neu!!: Parallele Programmierung und Vektorprozessor · Mehr sehen »

Verteiltes System

Ein verteiltes System ist nach der Definition von Andrew S. Tanenbaum ein Zusammenschluss unabhängiger Computer, die sich für den Benutzer als ein einziges System präsentieren.

Neu!!: Parallele Programmierung und Verteiltes System · Mehr sehen »

Visuelle Programmiersprache

Als visuelle Programmiersprache (VPL, auch grafische Programmiersprache) bezeichnet man eine Programmiersprache, in der ein Programm, Algorithmus oder Systemverhalten durch grafische Elemente und deren Anordnung definiert wird.

Neu!!: Parallele Programmierung und Visuelle Programmiersprache · Mehr sehen »

Warteschlange (Datenstruktur)

In der Informatik bezeichnet eine Warteschlange eine häufig eingesetzte Datenstruktur.

Neu!!: Parallele Programmierung und Warteschlange (Datenstruktur) · Mehr sehen »

Wettlaufsituation

Eine Wettlaufsituation, aus dem Englischen auch Race Condition oder Race Hazard, mitunter auch „kritische Wettlaufsituation“, bezeichnet in der Programmierung eine Konstellation, in der das Ergebnis einer Operation vom zeitlichen Verhalten bestimmter Einzeloperationen oder der Umgebung abhängt.

Neu!!: Parallele Programmierung und Wettlaufsituation · Mehr sehen »

X10 (Programmiersprache)

X10 ist eine parallele, objektorientierte Programmiersprache, für high-end Hardware mit bis zu 10000 Hardware-Threads.

Neu!!: Parallele Programmierung und X10 (Programmiersprache) · Mehr sehen »

Leitet hier um:

Nichtsequentielle Programmierung, Nichtsequenzielle Programmierung, Paralleles Rechnen.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »