Die neueste Version 6 des EU-Zolldatenmodells ging am 2. Juli 2021 online. Den europäischen Zollbehörden und anderen interessierten Parteien steht nun ein aktualisiertes Datenmodell zur Verfügung, wenn sie Informationen über die Datenanforderungen der Anhänge der Delegierten Verordnungen des Unionszollkodexes suchen.

Was ist das EU-Zolldatenmodell nochmal?

Das Zolldatenmodell der Europäischen Union (EUCDM) ist das Modell für transeuropäische Zollsysteme wie NCTS, AES, ICS und für die nationalen Zollabfertigungssysteme der Mitgliedstaaten. Es stellt ein technisches Instrument dar, das die Datenanforderungen gemäß den Zollvorschriften der Europäischen Union (EU) Unionszollkodex modelliert und liefert.

Welche Änderungen gibt es zwischen dem bisherigen EUCDM und der neuesten EUCDM-Version 6.0?

Mit der Veröffentlichung des EU-Zolldatenmodells Version 6.0 wurde der neu strukturierte, überarbeitete und harmonisierte Anhang B der Delegierten Verordnung des Unionszollkodex berücksichtigt. Die neue Version des EU-Zolldatenmodells setzt die Bestimmungen der einschlägigen Delegations- und Durchführungsverordnungen der Europäischen Kommission (EU) in Zolldatenanforderungen um. Darüber hinaus führt der geänderte Anhang B zusätzliche Zollmeldeverfahren ein, wie sie im neuen EU-Zollvorab-Informationssystem zur Erleichterung des freien Handelsverkehrs durch verbesserte Zollsicherheitsprozesse (ICS2) gefordert werden.

Im Vergleich mit früheren HTML-Veröffentlichungen des EU-Zolldatenmodells enthält das modernisierte EU-Zolldatenmodell 6.0 viele Verbesserungen hinsichtlich der Benutzerfreundlichkeit und Darstellung der Zolldatenanforderungen. Beispielsweise enthält die Dokumentation jetzt Dropdown-Menüs für die Navigation durch verschiedene Zollverfahren, wie sie in den EU-Rechtsvorschriften definiert und vorgeschrieben sind.

Weiterhin wurden die folgenden beiden neuen und informativen Bereiche hinzugefügt:

  • Das Archiv mit Verlinkungen zu früheren HTML-Veröffentlichungen des EU-Zolldatenmodells ab Version 3.0

  • Das zukünftige EU-Zolldatenmodell mit einer Projektion in die Zukunft mit unverbindlichen Informationen über mögliche zukünftige, datenmodellbezogene Entwicklungen und Implementierungen.

Diese Änderung ist gut, aber wie gehe ich damit um?

Die HTML Darstellung des EU-Zolldatenmodells bietet Ihnen eine “Read Me”-Seite, um Beobachtern, Anwendern und Implementierern bei der Nutzung der EUCDM-Publikation zu helfen. Der Menüpunkt “Read Me” im Abschnitt “Introduction” der Publikation enthält Informationen und Details über den semantischen Inhalt, die Verwendung und die Funktionen dieser Publikation.

Weitere Informationen:

Erfahren Sie mehr über die Umsetzung des EUCDM in unserem (englisch-sprachigen) kostenlosen Webinar über How to implement my customs requirements? Hands on customising of EUCDM with GEFEG.FX

Die OpenAPI Initiative hat gerade die Version OpenAPI 3.1 veröffentlicht. Am 17.02.2021 stellten Ron Ratovsky von SmartBear und Darrel Miller von Microsoft die neue Version vor. Dieser Artikel beschäftigt sich mit der Frage, was OpenAPI 3.1 Neues mit sich bringt und was das für bestehende Umsetzungen bedeutet.

Wer mehr zum Spezifikationsstandard OpenAPI an sich erfahren möchte, kann gerne auf der offiziellen Webseite oder in dem Artikel “Mit OpenAPI sieht so für mich die Zukunft aus: Eine Welt ohne Geschäftsdokumente. Model-First mit GEFEG.FX” nachlesen.

Die wesentlichen Änderungen von OpenAPI 3.1

Unterstützung von Webhooks

Aus meiner persönlichen Sicht ist der größte Unterschied die Unterstützung von Webhooks in APIs. Da das Thema für viele neu ist, habe ich noch einen kleinen Artikel zum Thema “Kein Haken an Webhooks. Jetzt flexible APIs bauen mit OpenAPI 3.1 und GEFEG.FX” verfasst. Dort findet sich auch ein Beispiel. Webhooks sind ein wesentlicher Erfolgsfaktor von WordPress. Erst diese Technik ermöglicht es Anwendungen effizient zu schreiben, und sie über Plug-ins einfach und standardisiert zu erweitern. Auch die OpenAPI Initiative hat Webhooks als so wesentlich angesehen, dass sie ein neuer Dokumententyp in OpenAPI sind. Eine OpenAPI Spezifikation hat somit nun drei grundlegende Wurzelelemente: Paths, Components und Webhooks.

Es kann nun also eine gültige API-Spezifikation geben, die ausschließlich Webhooks definiert. Auf den ersten Blick mag das seltsam erscheinen. Doch das kann etwas sehr Nützliches sein. Anwendungen sind schneller API-fähig, insbesondere, wenn sie einen festen Prozessablauf haben. Auch können damit nun bestehende APIs von Anwendungen wie WordPress sauber spezifiziert werden.

Bei der Spezifikation eines Webhooks wird der Pfad (Endpunkt) definiert, der in der fremden API ausgeführt wird. Im Gegensatz zu einem Callback ist ein Webhook also eine aktive Aktion in der fremden API. Schreibt mir doch mal in die Kommentare, was Ihr von den neuen Webhooks haltet.

Im Rahmen der Erprobung der Webhooks ergab sich schnell der Bedarf, auch Pfade wiederverwendbar zu machen, was zu der nächsten Änderung führt.

Globale Pfaddefinitionen

Mit der Version OpenAPI 3.1 können nun auch Pfade unter den Components spezifiziert werden. Ähnlich wie bei den Parametern kann einem Pfad nun ein global verfügbarer Name zugeordnet werden. Dies ist ein wesentlicher Schritt zur Standardisierung und besserer Governance von API – Implementationen.

Referenzierte Objekte mit überschriebener Beschreibung

Gerade bei der Definition globaler Objekte oder globaler Datenstrukturen kommt man häufig zu der Situation, dass in der konkreten Anwendung der Struktur sich der betriebswirtschaftliche Begriff ändert.

Hierzu ein einfaches Beispiel: Sagen wir mal, wir haben ein generisches Schema-Objekt definiert, mit der wir eine Anschrift bestehend aus Straße, Postfach, Postleitzahl, Ort und Land abbilden können. Und nun wollen wir diese Anschrift an verschiedenen Stellen nutzen. Bereits bei einer Organisation kann es aber mehr als eine Anschrift geben. Aus rein postalischer Sicht kann eine Organisation in Deutschland eine Hausanschrift, eine Postfachanschrift oder eine Großkundenanschrift haben. Kommen dann noch logistische Überlegungen hinzu, so können zum Beispiel noch Informationen zu Toren, Filialen oder ähnlichem hinzukommen.

OpenAPI 3.1 erlaubt nun bei der Referenz auf ein Schemaobjekt, die Summary und die Description zu überschreiben. Somit können nun also diese verschiedenen Ausprägungen der Anschrift klar beschrieben werden.

Was OpenAPI 3.1 nicht kann, aber die Lösung mit GEFEG.FX

OpenAPI 3.1 unterstützt lediglich das Überschreiben der verbalen Beschreibung einer Referenz. Insbesondere Wiederholhäufigkeiten oder (einschränkende) Änderungen an der referenzierten Struktur sind jedoch nicht möglich.

GEFEG.FX kann das. So ist es im obigen Beispiel nicht möglich, die Struktur einer Haus-, Postfach- und Großkundenanschrift zu unterscheiden. In OpenAPI 3.1 wären dafür drei verschiedene Schemaobjekte bzw. die Verwendung einer OneOf – Struktur erforderlich. Mit GEFEG.FX kann jedoch direkt an der Referenz definiert werden, dass die Großkundenanschrift zum Beispiel nur aus Postleitzahl, Ort und Land besteht.

Bei einer Hausanschrift wird das Postfach als
Mit GEFEG.FX einfach die Wiederholhäufigkeiten überschreiben

Unterstützung von Rollen und Claims Security

Mit der Version 3.1 werden durchgängig Rollen bei der Spezifikation von security requirements unterstützt. Das vereinfacht die Rechteverwaltung wesentlich. So kann nun zum Beispiel einfach definiert werden, dass schreibende oder löschende Operationen eine andere Rolle benötigen, als der lesende Zugriff.

Description und neue Summaries

Zur Beschreibung von Objekten eines APIs existieren nun neben der description auch noch eine kurze summary. Der wesentliche Unterschied besteht darin, dass die description eine Markdown-Formatierung unterstützt und somit für ausführliche Beschreibungen für den Entwickler ideal geeignet ist. Die summary unterstützt dies hingegen nicht. Sie dient als kurze Zusammenfassung der Funktion des Objektes. Idealerweise kann es somit von Code-Generation-Tools verwendet werden, die Sourcecode direkt aus der OpenAPI 3.1 Spezifikation erzeugen. Die summary könnte zum Beispiel als Kommentar in den Quellcode übernommen werden.

Volle Unterstützung von JSON Schema

Die Version OpenAPI 3.0.x bildet sowohl eine Untermenge von JSON Schema, als auch eine Obermenge von JSON Schema. Das wurde nun behoben. OpenAPI 3.1 ist nun vollständig kompatibel mit JSON Schema.

Weniger Formatangaben bei Datentypen

OpenAPI 3.0.x hat eine ganze Reihe unterstützter Formatangaben bei Datentypen definiert. Das hat sich mit der Version OpenAPI 3.1 geändert. Die Formatangaben gingen teilweise über die JSON Schema Spezifikation hinaus bzw. wiederholten bereits dort definierte Formatangaben.

Durch die Annäherung an JSON Schema werden nun nur noch diejenigen Formate spezifiziert, die das JSON Schema erweitern. Gleichzeitig wurde die Angabe eines Formates als Einschränkung des Datentyps aufgehoben. Die Angabe eines Formates ist nun also mehr eine Annotation, als eine Einschränkung. Die Prüfung ist also durch die jeweilige Applikation vorzunehmen.

Foto von Andreas Pelekies

Was denkt Ihr darüber? Ist das sinnvoll, oder verkompliziert es die Umsetzung eher?
Ich würde mich über eine Diskussion freuen.

 

In OpenAPI 3.1 sind nur noch die Formatangaben spezifiziert, die von JSON Schema standardmäßig nicht unterstützt werden.
Wegen JSON Schema werden nicht mehr alle Formaterweiterungen spezifiziert

Weitere Änderungen mit OpenAPI 3.1

 

Darüber hinaus gibt es noch ein paar weitere Änderungen in OpenAPI 3.1, die ich hier nur stichpunktartig zusammenfassen möchte:

 

  • Unterstützung von Multipart/form data für Parameter
  • Ein Path-Parameter muss auch definiert sein. Dies ist eigentlich logisch, war bisher aber nicht explizit vorgeschrieben.
  • Alle HTTP Methoden unterstützen Request Bodies. Also auch bei DELETE, GET, POST.
  • Dafür sind nun aber Responses optional. Wird eine Spezifikation in einem “Design-First” Ansatz entwickelt kann es sinnvoll sein, diese erst zu einem späteren Zeitpunkt zu spezifizieren. Gerade in einer kollaborativen Umgebung können somit gültige Spezifikationen ausgetauscht werden, die keine Fantasiewerte für Responses benötigen, da diese vielleicht noch nicht endgültig festgelegt sind.
  • Bei der Angabe von Mediatypes kann nun auch das contentEncoding angegeben werden.

 

Die vollständige Vorstellung des OpenAPI 3.1 Formats (in englischer Sprache) habe ich Euch einmal hier verlinkt.

 

Was bedeutet das für die Umsetzung?

 

Wenn ich mir die Änderungen im Vergleich zur Vorgängerversion anschaue, kann ich schon verstehen, warum die OpenAPI Initiative lange darüber nachgedacht hat, ob es OpenAPI 3.1 oder nicht doch lieber OpenAPI 4.0 heißen soll.

 

Auf der anderen Seite sind doch die meisten Neuerungen kompatibel. Eine API mit einer Spezifikation auf Basis von Version 3.0.x, funktioniert weiterhin. Lediglich die Abwärtskompatibilität ist nicht mehr unbedingt gewährleistet. Das die Vorgängerversion noch keine Webhooks und globale Pfade kannte, ist klar. Probleme würde es aber auch geben, wenn die nun optionalen Responses weggelassen würden. Eine solche Spezifikation wäre in der Vorgängerversion kein gültiges Dokument gewesen. Doch diese Konstellation sollte in den wenigsten Fällen auftreten.

Zum Jahresende 2020 hat die Weltzollorganisation eine neue Version ihres Datenmodells veröffentlicht. GEFEG.FX-Anwender des WCO-Datenmodells Version 3.10 können ab sofort auf die neue Version zugreifen. Was ist neu in 3.10? Anforderungen aufgrund neuer oder geänderter Gesetzgebung, die als Änderungswünsche von Zollbehörden und WZO Datenmodell-Nutzern eingereicht wurden, sind hinzugekommen oder wurden geändert.

Die Einbindung von Zollbehörden aus aller Welt unterstützt ein wichtiges Ziel des Datenmodells: Anforderungen nationaler und regionaler Gesetzgebungen oder Richtlinien für die praktische Implementierung werden berücksichtigt und in das WCO-Datenmodell eingearbeitet. In dieser Version sind keine neuen Informationspakete enthalten, sodass die neue Version abwärtskompatibel ist. In der nächsten Hauptversion des WCO-Datenmodells werden umfangreiche Änderungen erwartet. Nach derzeitigem Stand wird diese Hauptversion voraussichtlich gegen Ende 2022 veröffentlicht werden.

Effektivität und Effizienz der Zollbehörden rund um den Globus sollen verbessert werden

Ein wichtiges Ziel des WCO-Datenmodells ist es, einen globalen Standard für nahtlose grenzüberschreitende Transaktionen für alle Zollverwaltungen weltweit zu schaffen und weiterzuentwickeln. Was sind die Vorteile des Datenmodells, das die Basis für den Informationsaustausch von grenzüberschreitenden Prozessen in einer globalen Welt sein soll?

Das Datenmodell eröffnet die Möglichkeit, Interoperabilität und Zusammenarbeit in Single-Window- und anderen Implementierungen von Zollbehörden zu erreichen. Der Datenfluss und die Integration von Geschäftsdaten für Zollverfahren sollen vereinfacht und harmonisiert werden. Die Hauptkomponenten des WCO-Datenmodells bestehen aus “Base Information Packages”. Diese Informationspakete stellen Informationen zusammen, die von Wirtschaftsbeteiligten eingereicht und vom Zoll für typische Zollprozesse und -verfahren in Single-Window-Implementierungen oder an der virtuellen Grenze verarbeitet werden. Dazu gehören z.B. Anmeldungen, Lizenzen, Genehmigungen, Zertifikate oder andere Arten von regulativen grenzüberschreitenden Handelsdokumenten.

Auslieferung des WCO-Datenmodells in einem strukturierten, wiederverwendbaren Format in GEFEG.FX

In Kooperation mit der Weltzollorganisation liefert GEFEG seit den frühen 2010er Jahren das WCO-Datenmodell mit der Software GEFEG.FX aus. Damit eröffneten sich für Zollbehörden, Regierungsorganisationen, Händler und andere an grenzüberschreitenden Prozessen Beteiligte neue Möglichkeiten der gemeinsamen Entwicklungsarbeit und der anwenderspezifischen Nutzung des WCO-Datenmodells. Für die Anwender wird die Wiederverwendung des WCO-Datenmodells vereinfacht und rationalisiert. Dazu trägt auch ein gebrauchsfertiger XML-Schema-Export bei.

Einfache und effektive Nutzung des WCO-Datenmodells

Viele Nutzer der WCO-Datenmodellpakete in GEFEG.FX sind von den einfachen und effizienten Methoden zur Wiederverwendung des WCO-Datenmodells und zur Planung ihrer länderspezifischen Richtlinien beeindruckt. Mit jedem neuen Release ist es für die Anwender wichtig, festzustellen, ob ihre bestehenden Implementierungen modifiziert werden müssen, um die neuesten WCO-Definitionen von Objekten und Zollverfahren zu übernehmen, damit die Konformität mit dem Datenmodell gewährleistet ist. In diesem Release gibt es 11 neue Kompositionen, 2 neue Attribute, 3 neue Klassen und 1 neue Codeliste, die vom Data Model Project Team der Weltzollorganisation gepflegt und freigegeben wurden und in GEFEG.FX durch das GEFEG Implementierungsteam umgesetzt wurden.

GEFEG lädt alle Nutzer des WCO-Datenmodells ein, an unserem Webinar zu den Neuerungen und Änderungen des WCO-Datenmodells mit GEFEG.FX teilzunehmen. Das Webinar wird sich auch mit den möglichen Auswirkungen der neuen Version und ihren Implementierungen durch geschäftliche und technische Implementierer befassen. Darüber hinaus wird GEFEG die mit dem neuen Release ausgelieferten “How-to”-Dokumente vorstellen, die alle Anwender bei der Anwendung aller typischen Schritte mit einer neuen Version des WCO-Datenmodells unterstützen. In der 15-minütigen Frage- und Antwortrunde haben die Teilnehmer die Möglichkeit, Wünsche, Fragen und Kommentare zu äußern.

Nehmen Sie am WCO Webinar teil

Das EU-Zolldatenmodell (EUCDM) ist das neue Daten- und Schnittstellenmodell für transeuropäische Zollsysteme und für die nationalen Zollabfertigungssysteme der Mitgliedstaaten. Sein übergeordnetes Ziel ist es, die einzige und echte Informationsquelle zur Modellierung von Datenanforderungen zu sein. Es stellt ein technisches Instrument bereit, das die in der EU-Zollgesetzgebung festgelegten Datenanforderungen modelliert. Somit legt es die Richtlinie für die technischen Entwicklungen der verschiedenen IT-Systeme fest, die für die Datenverarbeitung durch den Zoll in der EU verwendet werden.

Das EUCDM im maschinenlesbaren Format

GEFEG bietet als einzige Firma das EUCDM im maschinenlesbaren GEFEG.FX-Format für die Anwendung an.

Mit der einzigartigen Software GEFEG.FX ist es Mitgliedstaaten und der Privatwirtschaft auf einfache Art möglich, durch Wiederverwendung und Anpassung das EUCDM an nationale Anforderungen und das eigene Unternehmen anzupassen.

Abgleich des EUCDM mit den eigenen Datenstrukturen

Dabei unterstützt GEFEG.FX sowohl den Überblick über die Strukturen des EUCDM als auch über die eigenen Datenstrukturen im eigenen Haus. Es ermöglicht eine einfache Zuordnung und unterstützt so die Datenharmonisierung zwischen diesen Strukturen.

Dies geschieht mit den innovativen und einzigartigen Methoden, die von der GEFEG für die Nutzung und den Aufbau von Nachrichtenstandards entwickelt wurden.

Kern dieser Methoden ist die Entwicklung von sogenannten Guidelines, um Datenstrukturen und Schnittstellen auf der Basis von verfügbaren Nachrichtenstandards zu definieren. Darüber hinaus unterstützt es die Erstellung von Publikationen.

EUCDM Governance und Sicherstellung der Datenqualität

Gerade das Thema Governance ist bei grenzüberschreitendem Datenaustausch maßgebend. GEFEG.FX unterstützt bei der Einhaltung der Governance und der Sicherstellung der Datenqualität. Bereits in der Entwicklungsphase können Implementierungen gegen die Vorgaben des Zolldatenmodells validiert werden.

Doch ist diese Unterstützung nicht auf das Zolldatenmodell beschränkt. Die Datenharmonisierung funktioniert auch bei eigenen Schnittstellen, die auf anderen Standards in diesem Umfeld basieren. Damit lässt sich die Wertschöpfungskette und das Zusammenspiel der vor- und nachgelagerten Partner verbessern.

Kosteneinsparungen und Effizienzgewinn

Die gestiegene Komplexität führt dazu, dass Firmen die Datenstrukturen ihrer eigenen Systeme häufig nicht mehr kennen. Sie wissen nicht was passiert, wenn ein Feld in der Anwendung geändert wird oder wie sie an benötigte Informationen gelangen. In einem europäischen oder sogar internationalen Kontext mit vielen nationalen Anforderungen verstärkt sich die Herausforderung weiter. Der Abgleich mit dem EUCDM führt hier zu deutlichen Kosteneinsparungen:

Die Auswirkungen von Gesetzesänderungen auf das Gesamtsystem “Zoll” wird transparent.

Beispiele für Publikationen im Umfeld des Zolls

Beispiele von mit GEFEG.FX erstellten Publikationen im Umfeld des Zolls sind:

  • Das europäische Zolldatenmodell (EUCDM) selbst.
  • Das CITES Datenmodell, das auf dem Datenmodell der Weltzollorganisation (WCO) basiert (ab S. 34)
  • Die Schnittstelle zum Zollmanagementsystem (ECMS) des niederländischen Zolls

Mehr als 6 Angebote von GEFEG rund um das EUCDM

Die von der GEFEG entwickelten Methoden und Softwaresysteme werden sowohl durch Zollverwaltungen als auch die Privatwirtschaft, wie z.B. Logistikern genutzt.

Die Angebote von GEFEG zum EUCDM umfassen:

  • GEFEG.FX zur Definition der Schnittstellen basierend auf dem EUCDM und zur Datenharmonisierung der eigenen Datenstrukturen und Schnittstellen gegenüber dem EUCDM (und anderen Standards)
  • GEFEG.FX.Cloud: GEFEG.FX in der Amazon Workspace Cloud mit Anwendung von GEFEG.FX im Webbrowser in beliebigen Betriebssystemen ohne Installation
  • GEFEG.Portal als Cloudlösung zum Community-Building und On-Boarding-Support, z.B. zur Validierung von Daten, Publikation von Schnittstellen sowie dem Teilen von Informationen und zur Zusammenarbeit
  • GEFEG.Packages mit mehr als 30 weiteren Datenpaketen, u.a. dem WCO-Datenmodell, EDIFACT, UN/CEFACT CCTS, GS1, UBL etc. zur Entwicklung von Guidelines und zur Datenharmonisierung
  • GEFEG.Support mit Workshops und Unterstützung (nicht nur) für EUCDM- und WCO Datenmodell-Implementierer, die vordefinierte EUCDM-Datensätze anpassen möchten, Guidelines erstellen wollen oder eine Datenharmonisierung durchführen möchten
  • GEFEG.API als die neueste und weltweit einzigartige Komponente der GEFEG Produktfamilie. Sie erlaubt die Erstellung von API Schnittstellen auf der Basis von Nachrichtenstandards. In diesem Fall auf Basis der Schemas des EUCDM, aber auch beliebiger anderer Schemas. Damit wird gewährleistet, dass die eigene API konform zu einem gewünschten Nachrichtenstandard ist.

Mit unserem Angebot lassen sich alle Arten von Digitalisierungsprojekten im Umfeld des EUCDM durchführen: Integrations-Projekte, API-Projekt und sogar KI-Projekte lassen sich zeit- und kostensparend durchführen, da jederzeit das Wissen und eine lückenlose Kontrolle über alle Daten gewährleistet sind.

Dies gilt natürlich auch für alle Projekte jenseits des EUCDM, die auf Basis des WCO-Datenmodells oder anderer Standards durchgeführt werden. Wann beginnen Sie mit Ihrem GEFEG-Projekt?

Die erweiterte Funktion Objekt-Prüfung … und mehr im neuen GEFEG.FX Release

Was ist Neu im GEFEG.FX Quartals-Release 2021-Q1?

Neue und überarbeitete Datenpakete in GEFEG.FX

  • EDIFACT D.20B in GEFEG.FX

Neu: IFTSTA als RECAST VERSION Message

  • UN/LOCODES Version 2020-2

Die Codeliste für codierte Ortsnamen in 249 Ländern weltweit wird zweimal jährlich von UN/CEFACT aktualisiert und mit GEFEG.FX ausgeliefert.

  • Automobil-Standards
    • Neue Versionen für Odette EDIFACT Messages
    • Finished Vehicle Logistics
    • Packaging Messages
    • Codelisten-Update
    • Neue Version der Auto-gration Schema Nachrichten
  • VDA-Standards (VDA Empfehlungen)
    • Neue oder überarbeitete Logistik-Nachrichten VDA 4933, VDA 4984, VDA 4985, VDA 4987, VDA 4989, VDA 4990
    • Codelisten-Update
  • WCO Datenmodell Version 3.10

Mit der Funktion Objekt-Prüfung Strukturproblemen gezielt auf die Spur kommen

Wenn Sie strukturelle Änderungen an Projektordnern vornehmen, kann sich dies direkt auf Ihre Objekte in GEFEG.FX auswirken. Im ungünstigsten Fall können Sie GEFEG.FX Guides nicht mehr öffnen. Woran liegt das?

Vielfach sind Objekte in GEFEG.FX mit Codelisten verlinkt oder basieren auf Basisstandards. Falls diese verknüpften Objekte nicht im GEFEG.FX Manager vorhanden sind, können GEFEG.FX Guides nicht ordentlich geöffnet werden. Ebenfalls problematisch sind mehrfach vorhandene Objekte: Auch dann kann GEFEG.FX keine eindeutige Zuordnung herstellen und das GEFEG.FX Objekt nicht öffnen.

Lösen Sie Ihre Probleme mit Verknüpfungen, Duplikaten oder verschobenen Objekten mit der Funktion Objekt-Prüfung

Nutzen Sie die Objekt-Prüfung im Manager, um Probleme in der Verlinkung, bei Duplikaten oder verschobenen Objekten zu identifizieren. Unabhängig vom Format (EDI–Guide, XML Schema oder Datenmodell) wird dabei das Ergebnis der Objekt-Prüfung als Fehlerliste ausgegeben und kann ab sofort als separate Datei zur weiteren Analyse gespeichert werden.

Navigieren Sie schnell in Datenmodell- und Schemastrukturen

Ein GEFEG.FX Schema oder Datenmodell kann sehr komplexe Strukturen annehmen. Dabei ist es nützlich, die benutzten Komponenten (Elemente, Typen, Attribute, Klassen) einer Nachricht bei Bedarf global zu definieren.

Vorteile eines globalen Designs sind die …

  • Wiederwendung

Benutzen Sie Komponenten wieder, so dass Strukturen, Inhalte und Einschränkungen übernommen und nicht erneut erfasst werden

  • Systematische Fehlerbehebung

Mit der Korrektur an einer Stelle werden alle Wiederverwendungen automatisch mit korrigiert

 

Ab sofort steht Ihnen eine Erweiterung für die Navigation innerhalb globaler Objekte zur Verfügung, die insbesondere für Schema- und Datenmodellentwickler relevant sein sollte: „Zeige Verwendungen in Nachrichten“. Springen Sie von einer globalen Komponente direkt in die Elementstruktur und sparen Sie Zeit und Mühe ohne jede einzelne Verwendung nachverfolgen zu müssen.

Wie sieht ein typisches Beispiel für die Nutzung dieser Funktion aus? Sie haben einen globalen Typen ‘Party’ definiert. Mit „Zeige Verwendungen in Nachrichten“ überspringen Sie die Zwischenebenen und gelangen zum ‘Buyer’ oder ‘Seller’ in der Nachricht.

Zum Thema OpenAPI gibt es eine ganze Reihe Artikel und Seiten im Netz. Warum sollte ich also einen weiteren schreiben? Ganz einfach. Viele dieser Artikel richten sich an (erfahrene) Webentwickler. Was ist aber mit all denjenigen, die sich bisher mit EDI oder dem Austausch von elektronischen Geschäftsnachrichten beschäftigt haben? Dieser kurze Einstieg ist für Euch.

APIs zum Austausch von Geschäftsdokumenten

Eine API als Verbindungsstück zwischen zwei Systemen oder Softwarekomponenten an sich ist nichts Neues. Deren Anwendung für den Austausch von Geschäftsdokumenten aber schon. Für diese Anforderung gibt es seit vielen Jahrzehnten Lösungen für den elektronischen Geschäftsdatenaustausch. Beispiele sind das klassische EDI auf Basis von EDIFACT oder der Austausch von XML-Dateien. Letztere erfährt gerade im Zug der verpflichtenden Einführung elektronischer Rechnungen für öffentliche Auftraggeber eine stärkere Verbreitung.

Doch gerade hier zeigen sich auch die Probleme der bisherigen Lösungen. Klassischer Dokumentenaustausch ist prinzipiell nichts anderes als die digitale Nachbildung der Papierwelt. Also hat sich im Grunde genommen in den letzten 100 Jahren kaum etwas am Grundprinzip geändert. Nur das Übertragungsmedium hat sich geändert: von Papier zu einem von vielen elektronischen Formaten. Das ging so lange gut, wie die zu übertragenden Dokumente nur zwischen zwei Partnern ausgetauscht wurden. Zum Beispiel die Rechnung vom Verkäufer zum Käufer.

Durch die fortschreitende Digitalisierung verbunden mit der Globalisierung steigen jedoch die Anforderungen. Oftmals sind am Austausch der Informationen nicht nur zwei, sondern mehr Partner interessiert, zum Beispiel, wenn Waren grenzüberschreitend transportiert werden sollen. Dann kommen neben den klassischen Partnern auch noch die ein- und die ausführende Zollbehörde, das Transportunternehmen und ggf. noch weitere Partner hinzu. Folglich ist dies eine sehr heterogene Welt in Bezug auf die Technik. Und gleichzeitig steigt die Anforderung nach Transparenz in der Lieferkette. Und die Forderung Produktpiraterie und -fälschungen besser erkennen und verhindern zu können.

Mit klassischem EDI ist das kaum umsetzbar

Doch warum ist das mit klassischem EDI so schwierig umzusetzen? Sicherlich spielt dabei eine wesentliche Rolle, dass es nicht “Das EDI” gibt, sondern viele verschiedene Standards zum Austausch von Geschäftsdokumenten. Diese sind teilweise durch Anforderungen einer Branche oder individuelle Anforderungen einzelner Unternehmen noch zusätzlich beladen. Dadurch wird ein Standard oftmals so stark verwässert, dass es viele hundert Varianten einer einzelnen Nachricht geben kann. Darüber hinaus kommt noch erschwerend dazu, dass hier die Anforderungen an “Geschäftsdokumente” erfüllt werden sollen.

Doch diese Anforderungen kommen aus der Papierwelt. Einer Welt, in der Menschen das erhaltene (Papier-) Dokument mit den Büchern (Buchhaltung) abgleichen. Diese Dokumente enthalten außerdem sehr viele Informationen, die in einem elektronischen Prozess eigentlich überflüssig sein könnten.

So braucht zum Beispiel eine Zollbehörde nicht die kompletten Vertragsbeziehungen einschließlich Lieferbedingungen oder vereinbarten Konditionen zu kennen. Klassisch entstehen hierfür wiederum neue Dokumente und neue (EDI -) Nachrichten. Oder beteiligte Personen oder Systeme haben (noch) keinen einheitlichen elektronischen Zugriff auf die Informationen. Heute kündigen große Lieferanten und ihren Kunden Lieferungen elektronisch an (Despatch advice). Und dennoch wird zusätzlich ein Lieferschein oder Warenbegleitschein ausgedruckt und der Sendung beigefügt.

Für eine EDI-Umsetzung müssen also die Prozesse der einzelnen Organisationen entlang der Wertschöpfungsketten auch semantisch ineinandergreifen. Also müssen auch die Managementsysteme der Organisationen mit solchen elektronischen Nachrichten umgehen können. Und immer auf einem gleichen Stand sein. Das ist in der Praxis nur schwer zu erreichen. Standards helfen dabei, aber eine Umsetzung ist oftmals zu schwierig und zu teuer.

Wer cloud meine Daten?

Noch ein weiterer Aspekt kommt hinzu. Eine Studie aus dem Jahr 2020 hat gezeigt, dass eines der größten Hemmnisse die Angst ist, durch zentrale Datenaustauschplattformen die Kontrolle über die eigenen Daten zu verlieren.

Die Sicherung der Datensouveränität ist also ein wesentlicher Aspekt, wenn im Business-to-Business Bereich Plattformen neu geschaffen werden sollen.

REST APIs bieten hier einen klaren Ansatz, sich von den Geschäftsdokumenten für den Datenaustausch zu lösen. Stattdessen werden nur die tatsächlich benötigten Informationen ausgetauscht. Mit klar definierten Partnern. So kann zum Beispiel sichergestellt werden, dass keine vereinbarten Preise über ein Lieferantenportal in die falschen Hände gelangen.

Trennung von Datenstrukturen und Services

Ein klassisches EDI Szenario umfasst im Wesentlichen nur zwei Services. Die Umwandlung von Daten eines Quellsystems in das Datenformat des Zielsystems und die Weiterleitung der Daten an das Zielsystem. Natürlich kann es komplexere Szenarien mit Rückmeldungen geben, die ähnlich wie ein Einschreiben mit Rückschein funktionieren. Aber alles, was darüber hinausgeht, ist eigentlich nicht mehr Bestandteil des eigentlichen EDI-Szenarios. Die Prozesse selbst müssen von den jeweiligen Endsystemen erbracht werden, zum Beispiel wird eine Auftragsbestätigung zu einer Bestellung vom System des Verkäufers erstellt. Die EDI-Lösung überträgt diese dann wiederum zurück. Also wiederum mit denselben Services, jedoch einem anderen Dokument.

In der Welt der APIs geht der Servicegedanke darüber hinaus. Eine API kann aktiv einzelne Prozessschritte unterstützen. Oder sie kann auch echten Mehrwert bieten, wie zum Beispiel die Bereitstellung von Informationen, wobei der API-Nutzer festlegen kann, welche Filterkriterien dabei angewendet werden sollen. Dies ist in der klassischen EDI-Welt kaum denkbar.

Diese Möglichkeiten führen dazu, dass in einer API nicht nur die Datenstrukturen definiert sind, sondern auch die Services. Diese verwenden dann die definierten Datenstrukturen, um eingehende Informationen zu verarbeiten, oder ausgehende Informationen bereitzustellen.

Machen APIs nicht alles komplizierter?

Puh, das klingt ziemlich kompliziert. Und wenn jetzt noch mehr dazu kommt, wird es dann nicht noch unübersichtlicher? Und irgendjemand muss es ja auch noch implementieren!

Genau hier setzt OpenAPI an. Gerade keine proprietären Regeln zu entwickeln, sondern die Spezifikation einer API zu standardisieren. Diesen Unterschied zu verstehen, ist immens wichtig. Es geht also nicht darum, wie eine API implementiert wird. Nein, sondern darum, was sie genau leisten soll. Welche Services sie bietet und welche Datenstrukturen sie dabei unterstützt.

Wie oben beschrieben gibt es im EDI-Umfeld viele Standards, auch internationale. Das Zentrum der Vereinten Nationen für Handelserleichterungen und elektronische Geschäftsprozesse UN/CEFACT standardisiert bereits seit vielen Jahren die Bedeutungen von Datenstrukturen bei Geschäftsdokumenten. UN/CEFACT veröffentlicht semantische Referenzdatenmodelle, an denen sich weltweit viele Organisationen und Branchen orientieren.

Von Bedeutungen und Zwillingen

REST APIs werden im Internet bereits viele Jahre eingesetzt. Vor allem zur Bereitstellung von Dienstleistungen für andere Webseiten oder auf mobilen Geräten. Beispiele sind APIs zur Währungsumrechnung oder die diversen Karten-APIs, mit der man einfach von A nach B navigieren kann. Das semantische Web spielt dabei ebenfalls eine wichtige Rolle. Die Systeme der Onlineshops, Suchmaschinen und sozialen Netzwerke sollen semantische Zusammenhänge erkennen können. Zum Beispiel welche Zutaten ein Rezept benötigt, wie lange die Zubereitung dauert, und welche Shops diese Zutaten zu welchen Preisen anbieten.

Eine wesentliche Grundlage dafür bieten die Standards auf schema.org. An diesen klaren Definitionen orientieren sich all diese Dienste und ermöglichen es sogenannte digitale Zwillinge (Digital Twins) abzubilden. Alles Identifizierbare der realen Welt lässt sich auch digital abbilden: Personen, Veranstaltungen, Häuser, Lizenzen, Software, Produkte und Dienstleistungen, um nur einige zu nennen. Und das Ganze verständlich für Menschen und durch Maschinen verarbeitbar.

Kein Wunder also, dass viele sich die Frage gestellt haben, wie sich dies auf die Business-to-Business-Ebene übertragen lässt, auch UN/CEFACT. Wie bleiben die Errungenschaften der letzten Jahrzehnte mit Web-APIs erhalten?

OpenAPI – Ein Spezifikationsstandard für APIs

Der Spezifikationsstandard OpenAPI definiert also ein Regelwerk, wie APIs zu spezifizieren sind. Welche Services werden bereitgestellt? Welche Datenstrukturen werden benötigt? Was sind die Anforderungen an eine Implementierung? Und das Ganze sowohl in einer Version, die durch den Entwickler gelesen werden kann, aber auch durch eine Maschine.

Genau hier liegt die eigentliche Stärke dieses Standards. Der sehr große Support durch eine Vielzahl an Tools und Programmierumgebungen. Damit ist es möglich, eine API auf der Fachebene zu definieren. Mit all ihren Services und Datenstrukturen. Sie kann gleichzeitig beschrieben werden, so dass ein Entwickler diese möglichst intuitiv umsetzen kann.

Und dabei wird der Entwickler massiv unterstützt. Da die Spezifikation maschinenlesbar ist, existieren Tools, die direkt aus der Spezifikation Quellcode erzeugen. Damit ist sichergestellt, dass die spezifizierten Eigenschaften der Schnittstelle selbst korrekt implementiert sind: Die Namen von Endpunkten (Services) sind korrekt. Die von diesen verwendeten Datenstrukturen sind korrekt umgesetzt und auch alle Rückgabewerte klar definiert.

Natürlich muss der Entwickler noch die eigentliche Implementierung der Server- bzw. Clientseite vornehmen. Stellt er sich dabei geschickt an, kann diese Implementierung sogar sicher gegenüber künftigen Änderungen sein. Eine Aktualisierung der Spezifikation kann direkt in den Sourcecode übernommen werden und bedarf nur kleinerer Anpassungen.

Wer definiert OpenAPI?

OpenAPI hat seinen Ursprung in Swagger. Bereits im Jahr 2010 hat der Hersteller von Swagger, die Firma SmartBear erkannt, dass eine API Spezifikation nur dann erfolgreich sein kann, wenn sie offen und gemeinschaftlich (community-driven) entwickelt wird. Daher hat sie die Rechte an die OpenAPI Initiative übertragen. Zu dieser gehören durchaus große Namen wie Google, Microsoft, SAP, Bloomberg und IBM. Diese Community ist sehr aktiv und entwickelt die Spezifikation stetig weiter. Die zum Zeitpunkt dieses Artikels jüngste Veröffentlichung ist OpenAPI 3.1.

Spätestens seit dem Jahr 2016 steht also Swagger nur noch für die von der Firma SmartBear erstellten Tools. Die mit diesen Tools erstellten Spezifikationen sind in der Regel OpenAPI Spezifikationen. Allerdings unterstützten diese Tools auch noch die alten Vorgängerformate, insbesondere das Format Swagger 2.0.

Nutzung und Verbreitung von OpenAPI

Das TMForum führt regelmäßig Studien zur Verbreitung von OpenAPI durch. Die letzte Studie zeigt eine deutliche Zunahme an Adoptionen. Vermehrt umkleiden Unternehmen ihre bestehenden APIs in OpenAPI Spezifikationen, sobald diese zum unternehmensübergreifenden Datenaustausch dienen. Gemäß der Studie teile sich der Markt insbesondere in zwei Lager auf: Klare Vertreter von OpenAPI und solche Organisationen, die sich künftig verstärkt um OpenAPI kümmern wollen.

In der Vorstellung von OpenAPI 3.1 erklärte Darrel Miller von Microsoft, dass es auch noch viele Implementierungen mit RAML gäbe. Jedoch zeige der Trend, dass RAML mehr bei Inhouse-Lösungen zu finden ist. OpenAPI bildet dabei vermehrt die Grundlage für unternehmensübergreifende Szenarien.

Code-First (Swagger) oder Model-First (GEFEG.FX)?

Ein wesentlicher Unterschied bei den derzeit auf dem Markt vorhandenen Tools liegt darin, ob die Quellcodeentwicklung oder die modellbasierte Entwicklung im Vordergrund steht. Der Swagger-Editor ist ein typisches Beispiel für eine Code-First-Anwendung. In einem Editor kann der API-Entwickler direkt seine API-Spezifikation erfassen und dokumentieren. Dies umfasst sowohl die Servicestrukturen, als auch die Datenstrukturen. Neben diesem maschinenlesbaren Format sieht er auch gleich die aufbereitete Dokumentation für einen anderen Entwickler. Die Dokumentation steht dann zum Beispiel in einem Developer-Portal zur Verfügung.

Im Gegensatz dazu verfolgt die Lösung GEFEG.FX einen Modell-getriebenen Ansatz. Nicht der technische Entwickler, sondern der Fachanwender steht hier im Vordergrund. Er ist verantwortlich für die betriebswirtschaftliche Sicht und die Prozesse in der Organisation oder zwischen den Organisationen. Oftmals ist er mit den bestehenden EDI-Implementierungen vertraut, oder er kennt zumindest die (wirtschaftlichen und rechtlichen) Anforderungen an die umzusetzenden Prozesse. Mit diesem Wissen ist er in der Lage die vorhandenen semantischen Referenzmodelle und Standards bei der API-Spezifikation zu verwenden. Das Rad wird nicht jedes Mal neu erfunden. Ändert sich ein solcher Standard, übernimmt GEFEG.FX die Änderung einfach in die API-Spezifikation. Zeitgleich werden die Governance-Anforderungen smart umgesetzt, ohne die einzelnen Abteilungen zu sehr einzuschränken. Dafür spielt es keine Rolle, ob es um die Umsetzung der elektronischen Rechnung, des elektronischen Lieferscheins, EDI, die Konsumgüterindustrie, die Automobilindustrie, die Branche der Energieversorger, UN/CEFACT oder andere geht.

Meine Empfehlung

Der Code-First Ansatz ist perfekt für Web-Entwickler. Fachanwender sind damit aber überfordert. Daher gibt es von mir die klare Empfehlung an all diejenigen mit Schwerpunkt EDI oder dem Austausch von elektronischen Geschäftsnachrichten: Plant OpenAPI als Model-First-Ansatz. Das ist zukunftssicher, erweiterbar und anpassbar.

Was ist Neu im GEFEG.FX Quartals-Release 2020-Q4?

 

Datenpakete in GEFEG.FX

  • ISO20022 – Datenmodell und Codelisten, Stand 09/2020
  • OAGIS 10.6 Standard und Enterprise Edition

FACELIFT für GEFEG.FX: Jetzt mit Ribbons (Menübänder)

GEFEG.FX präsentiert sich ab sofort mit einem neuen Erscheinungsbild. Die Menüfunktionen sind übersichtlich in Ribbons gruppiert. Wie aus anderen Software-Anwendungen bekannt, werden mit Ribbons zusammengehörige Funktionen und Befehle gruppiert, wodurch Sie Ihre Spezifikationen schneller und effizienter bearbeiten können. Zum Beispiel: die Befehle für Löschen, Umbenennen und Einfügen werden in der Gruppe Organisation gebündelt. Anhand der Icons erkennen Sie die verknüpfte Funktion auf den ersten Blick und müssen nicht durch das Kontextmenü navigieren.

Beim Öffnen eines Testdaten-Layouts muss keine Testdatei ausgewählt werden

Beim Testen von eingehenden oder ausgehenden Nachrichten in GEFEG.FX sparen Sie viel Aufwand, der andernfalls für die Analyse von Struktur- oder Formatabweichungen bei fehlerhaften Nachrichten anfallen würde. Verwenden Sie die Ergebnisse der Tests in den Protokolldateien als Grundlage für die anschließende Fehlerbehebung.

Wenn Sie anschließend Ihre Testdateien besprechen oder weiterleiten wollen, können Sie in GEFEG.FX eine Testnachricht-Dokumentation und mithilfe von Layouts eine benutzerspezifische, einheitliche Darstellung erstellen.

Das Testszenario kann dabei eine einzelne Nachricht oder aber auch ein Set von mehreren hundert Nachrichten umfassen. Nutzen Sie Testdaten-Layouts auch für die gezielte Ausgabe von ausgewählten Informationen einer Testnachricht.

Im neuen Release haben wir die Layout-Bearbeitung optimiert: Bisher musste für die Bearbeitung von Testdaten-Layouts im Vorfeld eine Testdatei bestimmt werden, anhand derer das Layout angezeigt wurde. Nun werden Testdaten-Layouts zum Editieren geöffnet, ohne dass Testdateien aufgerufen werden müssen.

Verbessern Sie die Navigation in Ihrer HTML-Dokumentation mit modernen Dropdown-Menüs

Viele GEFEG.FX Nutzer erstellen neben PDF- und Worddokumentationen auch menschenlesbare HTML-Dokumentation Ihrer Spezifikationen. Zu diesem Zweck generiert GEFEG.FX per Knopfdruck automatisch Hyperlinks innerhalb der Struktur Ihres Objekts.

HTML-Dokumentationen eignen sich insbesondere für die Veröffentlichung auf Webseiten. Indem Sie Ihre Spezifikationen im HTML-Format veröffentlichen, ermöglichen Sie Ihren Partnern ein benutzerfreundliches Browsen und ein schnelles Auffinden der gesuchten Informationen in Ihren komplexen oder umfangreichen Spezifikation(en). Anstatt in einer PDF- oder Word-Datei mühsam hin und her zu blättern, können sich Ihre Partner bequem durch die Dokumentation klicken.

Ab sofort stehen Ihnen in HTML-Dokumentationen auch Dropdown-Menüs zur Verfügung. Dies macht die Navigation übersichtlicher und einfacher, wie das folgende Beispiel zeigt: Sie verwenden Varianten von Schemas oder Datenmodellen, die geringfügig voneinander abweichen. Nutzen Sie Dropdown-Menüs, um diese Varianten in einer Gruppe zusammenzufassen und per Auswahlliste zu selektieren.

Im neuesten GEFEG.FX Quartals-Release 2020-Q2 finden Sie folgende neue oder weiterentwickelte Funktionalitäten.

Datenpakete in GEFEG.FX

  • GS1 XML 3.4.1 und Codelisten
  • ISO 20022 Modelle, Schemas und Codelisten, Stand 04/2020

GIT-Support in GEFEG.FX

Die Zusammenarbeit an Dokumenten und Ordnern mithilfe des Versionskontrollsystems GIT erfreut sich einer wachsenden Beliebtheit und stellt neben Subversion (SVN) eine der gängigsten Repository-Lösungen dar. Ab sofort unterstützt GEFEG.FX auch GIT Repositories und kann somit als GIT Client eingesetzt werden. Verknüpfen Sie GIT-kontrollierte Ordner in GEFEG.FX und wenden Sie bewährte Funktionen von Versionskontrollsystemen auf Ihre Daten an, beispielsweise das Hinzufügen oder Einchecken von Dateien.

Subversion (SVN) wird selbstverständlich weiterhin in GEFEG.FX unterstützt, sodass SVN und GIT als Versionskontrollsystem für Ihre Repository-Verwaltung in GEFEG.FX eingesetzt werden können.

Schnellere Auswahl von Typen bei der Schema-Entwicklung

Typen, Elemente und Attribute sind wesentliche Bestandteile eines XML Schemas, mit denen eine Schemastruktur aufgebaut werden kann. Dabei basieren Elemente immer auf Typen, die zur Einschränkung und Formatierung von Elementen dienen.

In der Schema-Entwicklung oder –Bearbeitung muss demnach jedem Element ein Typ zugeordnet werden. Dafür stehen, abhängig vom gewählten Schemadesign-Prinzip, lokale oder globale Typen zur Verfügung. Im neuen Release erleichtern wir Ihnen die Auswahl eines passenden Typen über ein Suchfeld, sodass Sie nicht mehr eine womöglich lange Liste der Typen mühsam durchscrollen müssen. Mit der Eingabe des Typnamens springen Sie direkt zum gewünschten Typen und wählen diesen aus.

Neue Diagramm-Variante für Datenmodell bzw. Schema: Ausgabe ohne Attribute möglich

Diagramme erleichtern das Verständnis der Nachrichtenstruktur und zeigen den Aufbau einer Nachricht mit wenigen technischen Details. Für die GEFEG.FX Datenobjekte Datenmodell und Schema sowie deren Guides können Diagramme im GEFEG.FX Manager aufgerufen und als Bilddatei exportiert werden.

Mit dem aktuellen Release erhalten Sie die Möglichkeit, eine Diagramm-Variante ohne Attribute auszugeben, alternativ zur umfassenderen Darstellung mit Attributen. Dies ist insbesondere dann relevant, wenn eine eher business-orientierte Sicht auf die Nachricht gewünscht wird. Ebenso nützlich ist diese Variante, wenn vorhandene Attribute erst zu einem späteren Zeitpunkt eine Relevanz haben und vorerst ausgeblendet werden können.

Ausgabe von Attribut-Pfaden in Reports nun auch für verlinkte Objekte

In der Datenmodellierung werden Attribute für die Beschreibung von Eigenschaften und Merkmalen verwendet. Ähnlich hierzu werden in XML-Strukturen Attribute zur Übertragung von Metadaten eingesetzt. Seit dem letzten Release werden in Datenmodell- und Schema-Reports auch Attribute mit Kurz-, Langnamenspfaden und der IndexPath ausgegeben. Dieses erleichtert die Einordnung des Attributes in die Gesamtstruktur der Nachricht, weil auf einen Blick die Position des Attributes in der Nachricht abgelesen wird.

Im aktuellen Release haben wir diese Funktion erweitert, sodass die Ausgabe der Pfade nicht nur innerhalb des GEFEG.FX Objekts selbst, sondern auch für verlinkte Objekte möglich ist. Verlinkungen zwischen GEFEG.FX Datenobjekten liegen beispielsweise bei Mappingprojekten vor. Waren vorher separate Reports nötig, um Pfadnamen und IndexPath für Attribute in beteiligten Mappingobjekten auszugeben, kann nun in einem einzelnen Report auf die Angaben des Mappingpartners zugegriffen werden. Dies spart Arbeitsgänge und führt damit zu effizienterem Arbeiten.

Neue Gestaltungsfunktion für Hintergrundlayouts in Dokumentation

Dokumentationen in GEFEG.FX können sehr flexibel gestaltet werden. Dabei bilden Layout- und Report-Dateien in GEFEG.FX eine Einheit, um beispielsweise Word oder PDF-Datei zu generieren.

Beim Zusammenspiel von Layouts und Reports werden die vielfältigen Gestaltungsmöglichkeiten bezüglich Farben, Schriftarten und Schriftgrößen in der Layout-Datei definiert und damit als Basis für den Report festgelegt. Im aktuellen Release kann ab sofort eine neue Einstellung für den Seitenhintergrund vorgenommen werden: Die Deckkraft der Hintergrundfarbe kann individuell als Prozentangabe eingestellt werden.