Sekundärdatenerfassung

   

3

 

Diese Lektion stammt aus Modul 3 (Geodaten - Erfassung und Quellen) und ist in zwei Hauptabschnitte gegliedert.

Mit dem „klassischen Digitalisieren“ wenden wir uns den Methoden der Sekundärdatenerfassung zu. Auch wenn die letzten Jahre immer neue halb- und vollautomatische Vektorisierungsmethoden auf den Markt gebracht haben, auf die manuelle Digitalisierarbeit werden wir auch in Zukunft nicht verzichten können.

Die Raster-Datenerfassung ist eine weitere große Domäne der Sekundärerfassung: Neben dem klassischen Scannen hat auch die bidirektionale Raster-Vektor-Konversion in der Praxis große Bedeutung.

In dieser Lektion lernen Sie:

  • Bildschirmdigitalisierung auf dem Hintergrund von Rasterbildern,
  • die Einschätzung der Qualität von Vektordaten,
  • einfache Spezifikationen für eine Digitalisierung aufzustellen,
  • automatisierte Raster-Vektor Konversion durchzuführen und zu beurteilen,
  • die Vor- und Nachteile automatisierter vs. manueller Digitalisierung zu benennen.

Doch vorab einige Aspekte zu den Quellen unserer Sekundärdatenerfassung.

zum Seitenanfang
   
   

Aspekte zu Datenquellen bei Sekundärdatenerfassung

Quellmaterialien zur Sekundärerfassung sind überwiegend Karten, Pläne und Luftbilder. Da deren Konversion in digitale Form einen größeren Aufwand erfordert, ist eine eingehende und kritische Betrachtung des Quellmaterials vor Beginn jeglicher Konversion wichtig.

Für die Beurteilung der Eignung (für den ins Auge gefassten Zweck) und den Verglkeich mit Alternativen sind Qualitätsprofile nützliche Hilfen. Einige Kriterienfür ein derartiges Qualitätsprofil:

Genauigkeit: die absolute Lagegenauigkeit (unter Einbeziehung des Maßstabs) der kartographischen Objekte

  • <= 1:20000: 90% der wichtigen Objekte innerhalb 1/30 inch von der wahren Position
  • >= 1:20000: 90% der wichtigen Objekte innerhalb von 1/50 inch von der wahren Position
  • Höheninformation: 90% aller geprüften Punkte dürfen um nicht mehr als ein halbes Isohypsenintervall abweichen.
    Quelle: US Map Accuracy Standard

Gebietsdeckung: Unvollständige Arbeitsgebiets-abdeckung durch Quellmaterial kann zum Abbruch des Projektes führen, manchmal besteht die Möglichkeit der Ergänzung durch anderes, meist schlechter geeignetes Material. In solchen Fällen muß in der resultierenden Datenbasis eine klare, Kennzeichnung der unterschiedlichen Quellen- und damit Qualitäten erfolgen.

Vollständigkeit: sind in der Quelle alle benötigten Objekte enthalten? Ist eine Prüfung / Ergänzung mit anderen Dokumenten bzw. Methoden möglich? Sind alle Objekte eindeutig identifiziert?

Korrektheit: die richtige Identifikation und Attributisierung von Objekten.

Zeitliche Aktualität: Welchen zeitlichen Stand repräsentiert das Dokument? Ist dieser eindeutig ausgewiesen? Ist dies der aktuell gültige oder zumindest letzte verfügbare Stand? Kann eine Aktualisierung aus anderen Quellen (z.B. aktuelles Luftbild) erfolgen?

Validität: Die Beziehung zur Korrektheit sieht so aus, dass ein Wert zwar valide sein kann („er liegt im zulässigen Wertebereich“), jedoch trotzdem nicht korrekt ist. Der umgekehrte Fall ist nicht möglich.

Verfügbarkeit: Auch existierende Dokumente sind manchmal nur schwer verfügbar, kaum zu erhalten bzw. bei Unikaten in laufendem anderweitigen Gebrauch.

Lesbarkeit: die Klarheit der Legendenausweisung, die gute visuelle Trennung zwischen aneinandergrenzenden Flächen, die Zuordnung von textlichen Beschriftungen zu Objekten.

Zustand: Einige Faktoren können die Nutzbarkeit von Quellen negativ beeinträchtigen: der Zeichnungsträger alter, historische Karten ist oft schon in sehr schlechtem Zustand, eine starkem Gebrauch unterliegende Karte kann in einem Zustand sein, der den Erfassungsprozess bzw. die erzielbare Qualität negativ beeinflusst (Umzeichnung oder sonstige Reproduktion sind dann erforderlich).

Originalität: Oft werden dieselben Sachverhalte und Phänomene in unterschiedlichen Karten zu finden sein. Diese Karten werden auch fallweise voneinander abgeleitet sein: wenn auf einer verkleinerten Kopie des Katasters der Flächenwidmungsplan eingetragen ist, wird man in der Regel den Kataster nicht von diesem abgeleiteten Dokument erfassen.

Die Qualitätsprofile graphisch umzusetzen erleichtert sowohl den Vergleich alternativer Datenquellen, als auch die generelle Einschätzung der Eignung einer Quelle. Dabei werden alle Kriterien untereinander aufgeführt, und für jedes Kriterium eine (durchaus unterschiedliche) Meßskala danebengestellt. Die Minimalanforderungen werden aufgetragen und durch eine Linie („Anforderungsprofil“) verbunden. Wenn nun alle Skalen von links („schlecht) nach rechts („gut“) orientiert sind, darf die Verbindungslinie der aufgetragenen beurteilten Qualitäten („Leistungsprofil“) die Linie des Anforderungsprofils an keiner Stelle überschneiden, sondern höchstens berühren:

Qualitätsprofil

 

zum Seitenanfang
   
   

Vektordatenerfassung

Das „Digitalisieren“ von Karten, also das Abfahren von Linien und Umgrenzen von Flächen gehört wohl zu dem am wenigsten beliebten Tätigkeiten im Umfeld Geographischer Informationsverarbeitung.

Lange Zeit war diese Technik der Datenerfassung die wichtigste Datenquelle für GIS und im Zeit- und Kostenaufwand der dominanteste Posten in einer Projektkalkulation. Heute hat sich die Bedeutung des Vektor-Digitalisierens durch Vorliegen umfassender digitaler Datenbestände erheblich reduziert. Allerdings ist die damit verwandte Bearbeitung von Vektordaten bei automatisationsgestützten Erfassungstechniken zur Nachbearbeitung und Fehlerbereinigung sowie zur Aktualisierung von Datenbeständen nach wie vor unentbehrlich. Insbesondere beim Ziel des Aufbaus topologisch korrekter Vektorbestände ist die Kenntnis der möglichen Ursachen von Topologiefehlern zur Bereinigung einer Vektordatei dringend erforderlich.

Bildschirm- Digitalisierung

Wärend früher Digitalisierarbeit häufig auf Digitalisiertischen mit sogenannten Meßlupen stattfand, ist durch die Verfügbarkeit hochauflösender, großer Displays diese Form der Digitalisierung weitgehend durch die Digitalisierung direkt am Bildschirm ersetzt worden. Eine solche hat mehrere entscheidende Vorteile:

  • Flexibles Zoomen auf lokale Ausschnitte.
  • Variable Gestaltung der „Vorlage“, etwa als Kombination von Luftbild und Karte - vor allem beim Bearbeiten und Nachführen existierender Vektorbestände.
  • Ergonomisch günstigere Arbeitsumgebung, Konzentration auf den Bildschirm und kein visuelles „Pendeln“ zwischen Schirm und Digitizer.
  • Anwendung einer Reihe interaktiver Arbeitshilfen, wie automatische Linienverfolgung, Mustererkennung etc.

Digitalisiervorbereitung der Ausgangsdokumente

Vorliegendes Karten- und Planmaterial kann kaum jemals sofort „vom Blatt“ erfaßt werden, je nach Zustand, Erfahrung und Orientierung des Bearbeiters sind unter Umständen eine Reihe von Vorbereitungsschritten erforderlich:

  • Identifikation der benötigten Blätter / Vollständigkeit des Materials.
  • Kontrolle von Blattformat vs. Scanner- Dimensionen. Falls erforderlich, Einteilung der Kartenblätter in Sektionen und Markieren der Grenzlinien zwischen Sektionen.
  • Eindeutige Feststellung des räumlichen Bezugssystems.
  • Rektifikation der gescannten Digitalisiervorlage mittels Passpunkten
  • Gegebenenfalls Markieren der zu erfassenden Objekte.
  • Aufstellen einer Digitalisieranleitung (siehe unten).

zum Seitenanfang

   
   

Digitalisiertechnik

Wie bekannt, werden im Vektormodell – auch gerundete – Lineamente durch Polygonzüge abgebildet. Damit stellt sich die Frage, wo nun entlang gekrümmter Linien vorteilhaft Stützpunkte von Polygonzügen zu setzen sind:

Unterschiedliche Linienführung beim Digitalisieren Unterschiedliche Linienführung beim Digitalisieren

Bei gekrümmten Linien ist zu berücksichtigen, dass bei zentrierter Lage der Stützpunkte in der „Linienmitte“ durch die geraden Sehnenverbindungen jeweils an der konkaven Seite der Linie ein kleiner Teil der angrenzenden Fläche „abgeschnitten“ wird. Dieser Effekt wird sich bei allgemeinen Flächengliederungen durch den Wechsel konkaver und konvexer Abschnitte aufheben. Bei im Durchschnitt kleinen, immer konvexen Figuren („Vorkommen“ bestimmter Phänomene) kann es allerdings durch diesen Effekt zu einer systematischen Unterschätzung der Flächen kommen, der durch leichtes zentrifugales Versetzen der Polygonstützpunkte zu kompensieren ist:

Ausgleich des "Sehneneffekts"Ausgleich des „Sehnen-Effektes“

Eine allgemein verbreitete „Taktik“ ist bei linienhaften Elementen die Forderung, dass dort, wo weitgehend parallel verlaufende Linien (Straßenbegrenzungen etc.) getrennt digitalisiert werden, Punkte immer gegenüber gesetzt werden, auch wenn an dieser Stelle eigentlich kein Vertex sein müsste.

Digitalisiertaktik bei DoppellinienDigitalisiertaktik bei Doppellinien: rechts Punkte gegenüber Vertex gesetzt.

zum Seitenanfang
   
   

Fangfunktion, Snapping

Neben der eigentlichen „Linienführung“ sind bei der Ersterfassung von Vektordaten einige weitere Fakten zu berücksichtigen. Eine zentrale Rolle spielt die Gewährleistung exakter Anschlüsse ineinander mündender Linienabschnitte. Um präzise Anschlüsse oder absolut geschlossene Flächenumgrenzungen herzustellen, müssen die Endpunkte (Knoten) zusammenlaufender Linien exakt gleiche Koordinaten aufweisen. Da dies bei der hohen numerischen Auflösung im Vektormodell praktisch unmöglich herzustellen ist, muss die Software unterstützend durch Fangfunktionen eingreifen. Immer dann, wenn ein Endpunkt einer Linie gesetzt wird, muss überprüft werden, ob innerhalb einer zu definierenden Distanz (Fangradius) bereits ein solcher Endpunkt liegt. Ist dies der Fall, so wird der neue Punkt auf die exakten Koordinaten des bestehenden Punktes gesetzt.

Einfangen von Knoten Einfangen von Knoten

Fehlerbereinigung

Beim Digitalisieren von Linien für topologische Netzwerke und Polygone können eine Reihe „typischer“ Fehler auftreten, die bereinigt werden müssen. Die wichtigsten dieser Fehler sind in der nachfolgenden Abbildung zusammengefasst.

DigitalisierfehlerTypische Fehler beim Digitalisieren

Es handelt sich dabei um folgende Fehler:

  • Fehlen von Linien: bei der Erfassung werden Linien übersehen, der resultierende Datenbestand ist unvollständig!
  • Duplikation von Linien: Linien werden irrtümlich doppelt, meist in nicht exakt identer Lage erfasst. Führt zu „Scheinpolygonen“ und topologischen Fehlern.
  • Schleifen im Verlauf und am Ende von Linien: (a) Linien überkreuzen sich selbst - topologischer Fehler, überflüssiges Polygon oder (b) eine andere Linie und „schnappen“ dann darauf zurück (gleiche Fehler).
  • Unexaktes Schließen von Knoten: Knoten liegen nicht exakt auf derselben Koordinatenposition.
  • „undershoots“ und „overshoots“ von Linien, die sich exakt treffen sollen: „undershoots“ führen zu topologischen Fehlern, „overshoots“ evtl. zu Knotenfehlern bzw. „Scheinkanten“.

Zur Vermeidung und Bereinigung solcher Fehler stehen in Erfassungssystemen meist eine Reihe automatisationsgestützter Werkzeuge zur Verfügung, die in der Regel kombiniert eingesetzt werden. Beispiele dafür sind:

  • Knoten-Fangfunktion
  • Linien-Fangfunktion und Knotenberechnung
  • Minimaler Vertexabstand
  • Minimale Linienlänge
  • Duplizitätsprüfung
AchtungModerne Desktop-GIS wie z.B. QGIS oder ArcGIS besitzen eine ganze Werkzeug-Palette von unterschiedlichen Digitalisierfunktionen um die oben angesprochenen „Digitalisierfehler“ erst gar nicht aufkommen zu lassen.
zum Seitenanfang
   
   

Randabgleich

RandabgleichImmer dann, wenn ein Untersuchungsgebiet über mehrere Kartenblätter hinweg reicht, ist im Zuge der Erfassung oder als Nachbearbeitungsschritt ein Randabgleich durchzuführen.

Inkonsistenzen am Blattrand ergeben sich u. a. aus:

  • Geringen Abweichungen in der Rektifikation der Blätter
  • Inhomogener Kartierung auf aneinandergrenzenden Blättern
  • Unterschiedlich alter Bearbeitungsstand von Blättern

Typische Randfehler

Die Bearbeitung dieser Fehler erfolgt entweder durch allgemeine Editierfunktionen oder spezielle Hilfen. Letztere erlauben etwa globales Einfangen von Knoten beschränkt auf den Randstreifen (also ohne potenzielle Auswirkungen in anderen Blattbereichen) oder das Setzen von „links“ (Zuordnungsvektoren zwischen sachlich identen, jedoch auseinanderliegenden Punkten) mit „rubber-sheeting“ (= lokales Dehnen und Stauchen) ebenfalls nur in den Randzonen.

Zu berücksichtigen sind bei derartigen Randabgleichen unter anderem folgende Faktoren:

  • Selbst bei sorgfältigem Abgleich kommt es am Blattrand zu Pseudoknoten - sollen diese entfernt werden?
  • Der Abgleich nicht exakt koinzidierender Blattgrenzen soll nicht auf eine der beiden Randlinien, auch nicht auf eine Linie irgendwo dazwischen, sondern auf den meist exakt vorliegenden Blattschnitt erfolgen.
  • Wenn eine Unterscheidung zwischen geometrisch „besseren“ und „schlechteren“ Blättern (z.B. auf Grund der Aktualität, Kartierungsqualität) möglich ist, soll das „bessere“ bewahrt bleiben.

Derartige Überlegungen sind vor allem dann von Bedeutung, wenn zu einem späteren Zeitpunkt wieder eine blattschnittbezogene Nachführung erfolgt - besonders in diesem Fall ist die Bewahrung des exakten Blattschnittes „lebensnotwendig“.

Digitalisieren: Organisatorische Aspekte

Zur Erzielung einer möglichst konsistenten und den Anforderungen gerecht werdenden Qualität von Digitalisier-Produkten ist es sinnvoll, Vorgaben für Einstellungen und Arbeitsweisen in Form einer „Digitalisier-Anleitung“ schriftlich festzuhalten. Umfang und Form dieser Anleitung werden von den Umständen abhängen. Arbeitet man ausschließlich selbst an einem kleineren Erfassungsprojekt, so genügen oft einige (digital in den Metadaten festgehaltene)Notizen; arbeitet eine Gruppe von Mitarbeitern über längere Zeit an einem Großprojekt, so werden exakte Beschreibungen und genaue Festlegungen anzuraten sein. Im Fall externer Vergabe von Erfassungsarbeiten kann die Anleitung selbst oder jedenfalls die wichtigsten Fakten daraus Teil des Pflichtenheftes sein.

Im Zuge der Arbeiten erforderliche Abweichungen und sonstige Anmerkungen werden in die Projektdokumentation (das Arbeitsprotokoll) Eingang finden. Zusammen bilden diese Unterlagen einen der Ausgangspunkte zur Erstellung der Datenbestands-Dokumentation sowie wesentliche Anhaltspunkte beim Aufsuchen von Fehlern und der Rekonstruktion von Problemen. Was soll nun diese Arbeitsanleitung alles beinhalten? Die nachfolgende Aufstellung sollte für konkrete Projekte gemäß eigenem Bedarf und spezifischer Anforderungen modifiziert werden:

  • Allgemeine Orientierung über Ziele und Umfang des Erfassungsprojektes, allfällige besondere Schutzvorkehrungen für Originale
  • Regeln zur Datenorganisation und -sicherung
  • Anweisungen zu Menge, Anordnung und Dokumentation zu verwendender Passpunkte sowie Regeln bzgl. maximaler Werte der Fehlerstatistik (RMS-Fehler) bei der Rektifikation der Ausgangsdokumente.
  • Genaue Festlegung der zu erfassenden Objektklassen
  • Definition von Kennzahlen-Schema (Objekt-Identifikation) und ggf. im Zuge der Erfassung zu vergebender Attribute. Wie sind fehlende Werte zu kodieren?
  • Anweisungen zur Erfassungsreihenfolge von Objekten, Kennzeichnung bereits erfasster Objekte und sonstige Maßnahmen zur apriori Sicherung von Vollständigkeit und Vermeidung von Doppelerfassung
  • Regeln für Handhabung von Gebietsgrenzen und Blatträndern (möglichst exakt abbrechen, eine bestimmte Distanz darüber hinaus arbeiten)
  • Wie sind unterschiedliche Objektklassen zu organisieren, in welcher Reihenfolge abzuarbeiten?
  • Regeln für das Setzen von Knoten
  • Fix- oder Richtwerte für die Einstellung von Fangtoleranzen
  • Fix- oder Richtwerte für die Einstellung von Mindestabständen zwischen Vertices
  • Anweisungen zur Protokollierung und Arbeitsaufzeichnungen
  • Anweisungen zur allfälligen Durchführung von Konsistenz- und Plausibilitätsprüfungen
  • Festlegung vom Übergabeformat.
   
   

Projektdokumentation

Auch bezüglich begleitender und abschließender Dokumentation von Erfassungsprojekten können hier nur einige Anregungen zu individuell angepasster Gestaltung gegeben werden. Gegebenenfalls. festzuhaltende Informationen betreffen:

  • Wer hat wann welche Arbeiten durchgeführt?
  • Herkunft und Verbleib von Quellmaterial
  • Protokolle von geometrischen Transformationen
  • Arbeitsfluss, Zwischenprodukte
  • Umfassende Dokumentation resultierender Datenbestände

Eine genaue Dokumentation ist wichtig, gerade wenn man gezwungen ist, zu einem späteren Zeitpunkt die exakte Genese eines Produktes nachzuvollziehen um erst später ersichtlichen Problemen auf die Spur zu kommen. Auch wenn man neue, vorerst nicht geplante Produkte ableiten bzw. ähnliche Projekte planen und kalkulieren möchte, sind konsequent durchgeführte Projektprotokolle eine unentbehrliche Arbeitshilfe.

zum Seitenanfang

Datenbereinigung als Voraussetzung für Vektortopologie

   
Das Thema Vektortopologie wird in Modul 2 umfassend behandelt, die entsprechende Lektion ist im Schnuppermodul jedoch nicht enthalten.
 

Der Aufbau von Vektor-Topologie kann vielfältig erfolgen: Entweder dynamisch zur Laufzeit oder in Form expliziter Topologietabellen. In jedem Fall wird ein topologisch sauberer Datenbestand als Grundlage benötigt.

Roh erfasste Vektordaten weisen - je nach Erfassungsunterstützung - häufig formale Fehler auf, die topologischen Abfragen im Weg stehen bzw. zu unerwünschten Ergebnissen führen. Diese möglichen Fehler wurden bereits oben angesprochen:

  • (Selbst-) Überschneidung von Linien ohne Knoten
  • Nicht exakt idente Koordinaten an Endpunkten von in einem Knoten konvergierenden Linien
  • Doppelt erfasste Linien, evtl. auch fehlende Linien
  • Fehlerhafte bzw. fehlende Kennzeichnung / Identifikation von Polygonen

Falls diese Fehler nicht schon automatisationsgestützt während der Erfassung vermieden wurden, können gewisse Fehler auch im Zuge einer nachträglichen Topologieprüfung gesucht bzw. entfernt werden. Dies sind unter anderem:

  • Einfügen von Knoten bei sich überschneidenden Linien
  • Zusammenfassen von Knoten innerhalb eines zu definierenden Radius
  • Entfernung doppelter Linien (eindeutige Identifikation ist problematisch!)
  • Erzeugen von Knoten, wenn sich Linien unterhalb eines Schwellwertes annähern

Zwar ist es prinzipiell möglich vollautomatisch einen formal topologisch korrekten Vektordatenbestand zu „erzwingen“, jedoch ist nur selten eine klare und eindeutige Parametrisierung dieser Manipulationen möglich. Häufig werden auf diese Weise zwar einige Fehler behoben, der Datenbestand weist jedoch dann mit nicht unbeträchtlicher Wahrscheinlichkeit inhaltliche Fehler auf.

Typische Fehler bei automatischer Bereinigung

Aus diesem Grund ist es empfehlenswert, topologische Fehler zwar softwareunterstützt aufzudecken, die eigentliche Fehlerbehebung aber manuell oder zumindest halbautomatisch durchzuführen. Moderne Softwareprodukte unterscheiden sich unter anderem auch in ihren Möglichkeiten zur Definition topologischer Regeln, nach denen Datenbestände validiert werden können.

Die folgenden Übungen zur Digitalisierung und Datenvalidierung mit QGIS und ArcGIS eignen sich gut zum Vergleichen der Leistungsfähigkeit der jeweiligen „Editierwerkzeuge“.

   
Übung

Übung: Digitalisieren in QGIS
Übung: Validierung von Vektorgeometrien

   
Aufgabe

Aufgabe: Bildschirmdigitalisierung in ArcGIS

   
   

Attributdomänen

Sie haben im Rahmen der vorhergehenden Aufgabe Attributdomänen angelegt um den Wertebereich eines Attributes auf real mögliche Werte einzuschränken. Da die Daten bereits bei der Eingabe einer Validitätsprüfung unterzogen werden, lassen sich auf diese Weise Eingabefehler reduzieren.

In manchen GIS-Softwareprodukten liegt eine wichtige Aufgabe von Domänen darin, zu definieren, wie das darauf beruhende Attribut im Fall einer Teilung oder einem Zusammenschluß von Geometrien gehandhabt wird. So muß etwa bei einer Verschmelzung (engl. Merge) von Bundesländerpolygonen zu einem Staatspolygon das Attribut „Einwohnerzahl“ anders behandelt werden als das Attribut „wirtschaftliche Wachstumsrate“. Während die Einwohnerzahlen der beteiligten Länderpolygone summiert werden müssen (die Summe der Einwohner aller Bundesländer ergibt die Einwohnerzahl des Staates), wird sich wirtschaftliche Wachstumsrate eines Staates wohl eher aus dem Mittelwert der Wachstumsraten seiner Länder ableiten lassen.

zum Seitenanfang
   
Frage, Diskussion

Versuchen Sie die jeweilige Split und Merge-Policy der unten gezeigten Domänen „Bevölkerungszahl“ und „Wachstumsrate“ nachzuvollziehen. Etwaige Fragen oder Kommentare dazu stellen Sie bitte in das Diskussionsforum. (In diesem "Schnuppermodul" nicht verfügbar)

   
   

a ) Wachstumsrate

b) Bevölkerungszahl

Einen anderen Ansatz zur korrekten Weiterverarbeitung von Attributen bei geometrischen Operationen wendet QGIS an: Hier "wissen" die Attribute nicht im Vorhinein wie sie sich "verhalten" sollen (z.B. im Fall einer Parzellenteilung) sondern die diesbezüglichen Regeln werden erst im Zuge der geometrischen Operation für jedes Attribut definiert. Dies funktioniert über die "Advanced Editing"-Toolbar mittels "Merge selected features". QGIS öffnet automatisch ein Fenster, in dem die gewünschte Operation gewählt werden kann. Allerdings bietet QGIS diese Funktion derzeit nur für das Zusammenfügen (Merge) von Features, nicht für das Teilen (Split).

Während die Definition des Attributverhaltens über die Domäne bei der Arbeit mit sinnvoll organisierten Geodatabases eine beträchtliche Arbeitserleichterung mit sich bringt, ist der operationsspezifische Ansatz vor allem dann vorteilhaft, wenn das Ziel die Analyse von Datenbeständen aus unterschiedlichen Quellen ist.
   
zum Seitenanfang

 

Zum SeitenanfangNach oben
Druckansicht Seite drucken
Download  Materialien-Download
EMail Uprof-Team
Service