Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Parallele Programmierung

Index Parallele Programmierung

Parallele Programmierung ist ein Programmierparadigma.

61 Beziehungen: Amdahlsches Gesetz, Asynchrone Kommunikation, Bildungsorientierte Programmiersprachen, Compiler, Computerprogramm, Cray, Daten, Deadlock (Informatik), Erlang (Programmiersprache), Graphpartitionierung, Hyper-Threading, IBM, Integrität (Informationssicherheit), Kausalität, Maschinensprache, Massively Parallel Processing, Mehrkernprozessor, Message Passing Interface, Mikrocode, Monitor (Informatik), Multitasking, Multithreading, Mutex, Nebenläufigkeit, Newsqueak, Occam, OpenMP, Out-of-order execution, Paralleler Algorithmus, Parallelrechner, Programmierparadigma, Programmiersprache, Prozess (Informatik), Prozesskontext, Prozessor, Prozessorkern, Prozessorzeit, Prozesssynchronisation, Quelltext, Race Condition, Rechnerverbund, Rendezvous (Informatik), Ressource, Scratch (Programmiersprache), Semaphor (Informatik), Sequentialisierung, Simultaneous Multithreading, Softwareentwickler, Speicherzugriff, Symmetrisches Multiprozessorsystem, ..., Synchrone Kommunikation, Synchronisation, Thread (Informatik), Time-Sharing (Informatik), Transaktionssystem, Unified Parallel C, Veränderung, Verteiltes System, Visuelle Programmiersprache, Warteschlange (Datenstruktur), X10 (Programmiersprache). Erweitern Sie Index (11 mehr) »

Amdahlsches Gesetz

Geschwindigkeitsgewinn eines parallelisierbaren Problems durch parallel arbeitende Prozessoren Das Amdahlsche Gesetz (benannt 1967 nach Gene Amdahl) ist ein Modell in der Informatik über die Beschleunigung von Programmen durch parallele Ausführung.

Neu!!: Parallele Programmierung und Amdahlsches Gesetz · Mehr sehen »

Asynchrone Kommunikation

Unter asynchroner Kommunikation versteht man in der Informatik und Netzwerktechnik einen Modus der Kommunikation, bei dem das Senden und Empfangen von Daten zeitlich versetzt und ohne Blockieren des Prozesses durch bspw.

Neu!!: Parallele Programmierung und Asynchrone Kommunikation · Mehr sehen »

Bildungsorientierte Programmiersprachen

Scratch für Kinder an einer eTafel. Bildungsorientierte Programmiersprachen sind als Lerninstrumente für Programmieranfänger konzipiert.

Neu!!: Parallele Programmierung und Bildungsorientierte Programmiersprachen · Mehr sehen »

Compiler

Ein Compiler (auch Kompiler; von für zusammentragen bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann.

Neu!!: Parallele Programmierung und Compiler · Mehr sehen »

Computerprogramm

Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw.

Neu!!: Parallele Programmierung und Computerprogramm · Mehr sehen »

Cray

Cray Inc. ist ein Unternehmen, das 1972 unter dem Namen Cray Research von Seymour Cray gegründet wurde.

Neu!!: Parallele Programmierung und Cray · Mehr sehen »

Daten

Unter Daten versteht man im Allgemeinen Angaben, (Zahlen-)Werte oder formulierbare Befunde, die durch Messung, Beobachtung u. a.

Neu!!: Parallele Programmierung und Daten · Mehr sehen »

Deadlock (Informatik)

Deadlock oder Verklemmung bezeichnet in der Informatik einen Zustand, bei dem eine zyklische Wartesituation zwischen mehreren Prozessen auftritt, wobei jeder beteiligte Prozess auf die Freigabe von Betriebsmitteln wartet, die ein anderer beteiligter Prozess bereits exklusiv belegt hat.

Neu!!: Parallele Programmierung und Deadlock (Informatik) · Mehr sehen »

Erlang (Programmiersprache)

Softwarepaket LAMP dar. Erlang ist eine Programmiersprache, die bei Ericsson von Joe Armstrong und anderen entwickelt wurde.

Neu!!: Parallele Programmierung und Erlang (Programmiersprache) · Mehr sehen »

Graphpartitionierung

Partitionierter Graph Graphpartitionierung bezeichnet die Anwendung geeigneter Algorithmen zur Berechnung von Graphpartitionen (vgl. Schnitt (Graphentheorie)) mit gewünschten Eigenschaften.

Neu!!: Parallele Programmierung und Graphpartitionierung · Mehr sehen »

Hyper-Threading

Hyper-Threading Technology (kurz HTT, üblicherweise nur Hyper-Threading genannt) ist eine spezielle Implementierung von hardwareseitigem Multithreading in Intel-Prozessoren.

Neu!!: Parallele Programmierung und Hyper-Threading · Mehr sehen »

IBM

Die International Business Machines Corporation (IBM) ist ein US-amerikanisches IT- und Beratungsunternehmen mit Sitz in Armonk im US-Bundesstaat New York.

Neu!!: Parallele Programmierung und IBM · Mehr sehen »

Integrität (Informationssicherheit)

Integrität (von ‚Unversehrtheit‘, ‚Reinheit‘, ‚Unbescholtenheit‘) ist neben Verfügbarkeit und Vertraulichkeit eines der drei klassischen Ziele der Informationssicherheit.

Neu!!: Parallele Programmierung und Integrität (Informationssicherheit) · Mehr sehen »

Kausalität

Kausalität („Ursache“) ist die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse und Zustände.

Neu!!: Parallele Programmierung und Kausalität · Mehr sehen »

Maschinensprache

Maschinensprache (auch Maschinencode oder nativer Code genannt) ist eine Programmiersprache, in der die Instruktionen, die vom Prozessor eines Computers direkt ausgeführt werden können, als Sprachelemente festgelegt sind – die „Programmiersprache eines Computers“.

Neu!!: Parallele Programmierung und Maschinensprache · Mehr sehen »

Massively Parallel Processing

Der Begriff Massenparallelrechner (MPR) oder englisch Massively Parallel Processing (MPP) bezeichnet in der Informatik die Verteilung einer Aufgabe auf mehrere Hauptprozessoren, die jeweils auch über eigenen Arbeitsspeicher verfügen können.

Neu!!: Parallele Programmierung und Massively Parallel Processing · Mehr sehen »

Mehrkernprozessor

Der Begriff Mehrkernprozessor (abgeleitet vom englischen Begriff auch Multicore-Prozessor oder Multikernprozessor) bezeichnet einen Mikroprozessor mit mehr als einem vollständigen Hauptprozessorkern in einem einzigen Chip.

Neu!!: Parallele Programmierung und Mehrkernprozessor · Mehr sehen »

Message Passing Interface

Message Passing Interface (MPI) ist ein Standard, der den Nachrichtenaustausch bei parallelen Berechnungen auf verteilten Computersystemen beschreibt.

Neu!!: Parallele Programmierung und Message Passing Interface · Mehr sehen »

Mikrocode

Der Mikrocode ist der Binärcode eines Mikrobefehls oder einer Mikrobefehlssequenz eines Mikroprogramms.

Neu!!: Parallele Programmierung und Mikrocode · Mehr sehen »

Monitor (Informatik)

Ein Monitor in der Informatik ist ein programmiersprachliches Konzept zur Synchronisation von Zugriffen zeitlich verschränkt oder parallel laufender Prozesse oder Threads auf gemeinsam genutzten Datenstrukturen oder Ressourcen.

Neu!!: Parallele Programmierung und Monitor (Informatik) · Mehr sehen »

Multitasking

Der Begriff Multitasking (engl.) bzw.

Neu!!: Parallele Programmierung und Multitasking · Mehr sehen »

Multithreading

Multithreading (auch Nebenläufigkeit, Mehrsträngigkeit oder Mehrfädigkeit genannt) bezeichnet in der Informatik das gleichzeitige (oder quasi-gleichzeitige) Abarbeiten mehrerer Threads (Ausführungsstränge) innerhalb eines einzelnen Prozesses oder eines Tasks (ein Anwendungsprogramm).

Neu!!: Parallele Programmierung und Multithreading · Mehr sehen »

Mutex

Der Begriff wechselseitiger Ausschluss bzw.

Neu!!: Parallele Programmierung und Mutex · Mehr sehen »

Nebenläufigkeit

Die Nebenläufigkeit, auch Parallelität genannt, ist in der Informatik die Eigenschaft eines Systems, mehrere Berechnungen, Anweisungen oder Befehle gleichzeitig ausführen zu können.

Neu!!: Parallele Programmierung und Nebenläufigkeit · Mehr sehen »

Newsqueak

Newsqueak ist eine parallele Programmiersprache zum Programmieren von Anwendungsprogrammen für Fenstersysteme.

Neu!!: Parallele Programmierung und Newsqueak · Mehr sehen »

Occam

Occam ist eine imperative, parallele Programmiersprache, die auf Communicating Sequential Processes aufbaut.

Neu!!: Parallele Programmierung und Occam · Mehr sehen »

OpenMP

OpenMP (Open Multi-Processing) ist eine seit 1997 gemeinschaftlich von verschiedenen Hardware- und Compilerherstellern entwickelte Programmierschnittstelle (API) für die Shared-Memory-Programmierung in C++, C und Fortran auf Multiprozessor-Computern.

Neu!!: Parallele Programmierung und OpenMP · Mehr sehen »

Out-of-order execution

Out-of-order execution (für etwa Ausführung in anderer Reihenfolge) bezeichnet die Möglichkeit, Maschinenbefehle in den Ausführungseinheiten eines (meist superskalaren) Prozessors in einer anderen Reihenfolge auszuführen, als sie im Programmcode stehen.

Neu!!: Parallele Programmierung und Out-of-order execution · Mehr sehen »

Paralleler Algorithmus

Ein paralleler Algorithmus ist ein Algorithmus, welcher zum Beispiel ein Problem der Komplexitätsklasse NC (Nick’s Class nach Nick Pippenger) in polynomieller Zeit lösen bzw.

Neu!!: Parallele Programmierung und Paralleler Algorithmus · Mehr sehen »

Parallelrechner

Parallelrechner, ein Cray-2 (1986) Ein Parallelrechner ist ein Rechner, in dem Rechenoperationen gleichzeitig unter anderem auf mehreren Haupt- oder Grafikprozessoren durchgeführt werden können.

Neu!!: Parallele Programmierung und Parallelrechner · Mehr sehen »

Programmierparadigma

Ein Programmierparadigma ist ein fundamentaler Programmierstil.

Neu!!: Parallele Programmierung und Programmierparadigma · Mehr sehen »

Programmiersprache

Quelltext eines Programms in der Programmiersprache C++. Scratch. Eine Programmiersprache ist eine formale Sprache zur Formulierung von Datenstrukturen und Algorithmen, d. h.

Neu!!: Parallele Programmierung und Programmiersprache · Mehr sehen »

Prozess (Informatik)

Ein Prozess (in manchen Betriebssystemen auch Task genannt) ist ein Computerprogramm zur Laufzeit.

Neu!!: Parallele Programmierung und Prozess (Informatik) · Mehr sehen »

Prozesskontext

Als Prozesskontext bezeichnet man in der Informatik, insbesondere bei der Konzeption von Betriebssystemen, die gesamte Information, die für den Ablauf und die Verwaltung von Prozessen von Bedeutung ist.

Neu!!: Parallele Programmierung und Prozesskontext · Mehr sehen »

Prozessor

Ein Prozessor ist ein (meist sehr stark verkleinertes) (meist frei) programmierbares Rechenwerk, also eine Maschine oder eine elektronische Schaltung, die gemäß übergebenen Befehlen andere Maschinen oder elektrische Schaltungen steuert und dabei einen Algorithmus (Prozess) vorantreibt, was meist Datenverarbeitung beinhaltet.

Neu!!: Parallele Programmierung und Prozessor · Mehr sehen »

Prozessorkern

Als Prozessorkern oder auch Rechenkern wird der zentrale Teil eines Rechenwerkes – oder eines sogenannten Mikroprozessors – bezeichnet, der selbst wenigstens aus einer arithmetisch-logischen Einheit, den Rechenregistern und den wesentlichen Teilen eines Steuerwerkes besteht.

Neu!!: Parallele Programmierung und Prozessorkern · Mehr sehen »

Prozessorzeit

top) verschiedener Prozesse eines unixoiden (GNU/Linux) Systems (in der Spalte “TIME+”). Die Prozessorzeit bezeichnet die gemessene Zeit in Stunden, Minuten und Sekunden, in der ein laufendes Computerprogramm seit dem letzten Programmstart tatsächlich Kommandos an den Prozessor gesendet hat.

Neu!!: Parallele Programmierung und Prozessorzeit · Mehr sehen »

Prozesssynchronisation

In der Programmierung versteht man unter Prozesssynchronisation (oder kurz einfach Synchronisation) die Koordinierung des zeitlichen Ablaufs mehrerer nebenläufiger Prozesse bzw.

Neu!!: Parallele Programmierung und Prozesssynchronisation · Mehr sehen »

Quelltext

Quelltext, auch Quellcode oder unscharf Programmcode genannt, ist in der Informatik der für Menschen lesbare, in einer Programmiersprache geschriebene Text eines Computerprogrammes.

Neu!!: Parallele Programmierung und Quelltext · Mehr sehen »

Race Condition

Ein kritischer Wettlauf, auch Wettlaufsituation (oder race hazard) ist in der Programmierung eine Konstellation, in der das Ergebnis einer Operation vom zeitlichen Verhalten bestimmter Einzeloperationen abhängt.

Neu!!: Parallele Programmierung und Race Condition · Mehr sehen »

Rechnerverbund

NASA-Computercluster Ein Rechnerverbund oder Computercluster, meist einfach Cluster genannt (vom Englischen für „Rechner-Schwarm“, „-Gruppe“ oder „-Haufen“), bezeichnet eine Anzahl von vernetzten Computern.

Neu!!: Parallele Programmierung und Rechnerverbund · Mehr sehen »

Rendezvous (Informatik)

In der Informatik bezeichnet ein Rendezvous eine Variante der synchronen Interprozesskommunikation.

Neu!!: Parallele Programmierung und Rendezvous (Informatik) · Mehr sehen »

Ressource

Eine Ressource (von) ist Mittel, Gegebenheit wie auch Merkmal bzw.

Neu!!: Parallele Programmierung und Ressource · Mehr sehen »

Scratch (Programmiersprache)

Scratch ist eine erstmals 2007 veröffentlichte erziehungsorientierte visuelle Programmiersprache für Kinder und Jugendliche inklusive ihrer Entwicklungsumgebung und der eng verknüpften Online-Community-Plattform.

Neu!!: Parallele Programmierung und Scratch (Programmiersprache) · Mehr sehen »

Semaphor (Informatik)

Ein Semaphor (von und φέρειν pherein ‚tragen‘ – also etwa „Signalgeber“) ist eine Datenstruktur, die aus einer Ganzzahl und den Nutzungsoperationen „Reservieren/Probieren“ und „Freigeben“ besteht.

Neu!!: Parallele Programmierung und Semaphor (Informatik) · Mehr sehen »

Sequentialisierung

Unter Sequentialisierung oder Sequenzialisierung versteht man das Schaffen einer Ordnung für eine Menge von Aktionen entlang der Kausalordnung, die z. B.

Neu!!: Parallele Programmierung und Sequentialisierung · Mehr sehen »

Simultaneous Multithreading

Der Begriff Simultaneous Multithreading (kurz SMT; etwa „simultaner Mehrfadenbetrieb“) bezeichnet die Fähigkeit eines Mikroprozessors, mittels getrennter Pipelines und/oder zusätzlicher Registersätze mehrere Threads gleichzeitig auszuführen.

Neu!!: Parallele Programmierung und Simultaneous Multithreading · Mehr sehen »

Softwareentwickler

Ein Softwareentwickler ist eine Person, die an der Erstellung von Software mitwirkt.

Neu!!: Parallele Programmierung und Softwareentwickler · Mehr sehen »

Speicherzugriff

Als Speicherzugriff bezeichnet man in der Datenverarbeitung und Informatik den Datenaustausch mit einem Datenspeicher oder einer Datenstruktur.

Neu!!: Parallele Programmierung und Speicherzugriff · Mehr sehen »

Symmetrisches Multiprozessorsystem

Ein symmetrisches Multiprozessorsystem (SMP) ist in der Informationstechnologie eine Multiprozessor-Architektur, bei der zwei oder mehr identische Prozessoren einen gemeinsamen Adressraum besitzen.

Neu!!: Parallele Programmierung und Symmetrisches Multiprozessorsystem · Mehr sehen »

Synchrone Kommunikation

Unter synchroner Kommunikation versteht man in der Informatik und Netzwerktechnik einen Modus der Kommunikation, bei dem die Kommunikationspartner (Prozesse) beim Senden oder beim Empfangen von Daten immer synchronisieren, also warten (blockieren), bis die Kommunikation abgeschlossen ist.

Neu!!: Parallele Programmierung und Synchrone Kommunikation · Mehr sehen »

Synchronisation

einfache Synchronisation der Zeitmessung („Uhrenvergleich“) Synchronisation (auch Synchronisierung, von griechisch συν syn „zusammen“, χρόνος chrónos „Zeit“) bezeichnet das zeitliche Abgleichen von Vorgängen, Uhren und Zeitgebern.

Neu!!: Parallele Programmierung und Synchronisation · Mehr sehen »

Thread (Informatik)

In der Informatik bezeichnet Thread (‚Faden‘, ‚Strang‘) – auch Aktivitätsträger oder leichtgewichtiger Prozess genannt – einen Ausführungsstrang oder eine Ausführungsreihenfolge in der Abarbeitung eines Programms.

Neu!!: Parallele Programmierung und Thread (Informatik) · Mehr sehen »

Time-Sharing (Informatik)

Time-Sharing war der erste konzeptionelle Ansatz in der Computertechnologie, mehrere Benutzer an einem Computer gleichzeitig arbeiten zu lassen (Mehrbenutzersystem), indem sie sich die Rechenzeit des einzigen vorhandenen Prozessors teilten.

Neu!!: Parallele Programmierung und Time-Sharing (Informatik) · Mehr sehen »

Transaktionssystem

Ein Transaktionssystem ist in der Informatik (genauer in der Datenbanktheorie) ein Teilsystem, das Transaktionen auf einem Datenbestand ausführt.

Neu!!: Parallele Programmierung und Transaktionssystem · Mehr sehen »

Unified Parallel C

Unified Parallel C (UPC) ist eine parallele Erweiterung der Programmiersprache C für den Einsatz in Hochleistungsrechnern.

Neu!!: Parallele Programmierung und Unified Parallel C · Mehr sehen »

Veränderung

Es gibt zwei grobe Synonymbedeutungen für Veränderung: 1.

Neu!!: Parallele Programmierung und Veränderung · Mehr sehen »

Verteiltes System

Ein verteiltes System ist nach der Definition von Andrew S. Tanenbaum ein Zusammenschluss unabhängiger Computer, die sich für den Benutzer als ein einziges System präsentieren.

Neu!!: Parallele Programmierung und Verteiltes System · Mehr sehen »

Visuelle Programmiersprache

Als Visuelle Programmiersprache (VPL) bezeichnet man eine Programmiersprache, in der ein Programm, Algorithmus oder Systemverhalten durch grafische Elemente und deren Anordnung definiert wird.

Neu!!: Parallele Programmierung und Visuelle Programmiersprache · Mehr sehen »

Warteschlange (Datenstruktur)

In der Informatik bezeichnet eine Warteschlange eine häufig eingesetzte Datenstruktur.

Neu!!: Parallele Programmierung und Warteschlange (Datenstruktur) · Mehr sehen »

X10 (Programmiersprache)

X10 ist eine parallele, objektorientierte Programmiersprache, für high-end Hardware mit bis zu 10000 Hardware-Threads.

Neu!!: Parallele Programmierung und X10 (Programmiersprache) · Mehr sehen »

Leitet hier um:

Nichtsequentielle Programmierung, Nichtsequenzielle Programmierung, Paralleles Rechnen.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »