Persistent Selv: Eine interaktive Demo rund um die langfristige digitale Identität

Dies ist der dritte und letzte Teil unserer dreitägigen Serie über die EIT Climate KIC Deep Demonstration. Wenn Sie mehr über die Idee hinter dem Programm erfahren möchten, können Sie Teil eins nachlesen, während Teil zwei einen Überblick über die breitere Vision unserer Partnerschaft mit EIT Climate KIC gibt.

Heute möchten wir mit Ihnen das Ergebnis eines experimentellen Demonstrationsprojekts teilen, an dem wir mit einer Reihe von überzeugenden Partnern gearbeitet haben. In erster Linie ist diese Demo das Ergebnis einer Zusammenarbeit mit Dark Matter Labs, einem strategischen Forschungs-, Design- und Entwicklungslabor. Aufbauend auf Selv, IOTAs Demonstrationsplattform für selbstverwaltete Identitäten (SSIDs), wollen wir Ihnen einen Einblick in digitale Identitäten geben und wie diese in Zukunft die Nachhaltigkeit der Menschheit beeinflussen können. Es ist wichtig zu betonen, dass es sich hierbei um ein Experiment und kollaboratives Gedankenexperiment handelt und wir sind dem EIT Climate KIC dankbar, dass es die Weitsicht hat, solch kühne Entwicklungen zu unterstützen. Doch bevor wir die Demonstration mit Ihnen teilen, möchten wir Ihnen mehr Hintergrundinformationen über die zugrundeliegenden Überlegungen zu digitalen Identitäten und die Konzepte geben, die in dieses spielerische Experiment eingeflossen sind:

Ich, ich selbst und meine vielen Identitäten

Wenn wir über souveräne Identitäten sprechen, sehen wir oft die großartigen Möglichkeiten, die Technologie im Allgemeinen und Distributed Ledger im Besonderen schaffen können, indem sie Menschen befähigen und Identitäten für die eine Milliarde Menschen bereitstellen, die derzeit keine rechtlich anerkannten Mittel zur Identifizierung haben. Aber der Weg zu einer allgemein akzeptierten und, was noch wichtiger ist, datenschutzfreundlichen und sicheren Implementierung selbstverwalteter digitaler Identitäten in großem Maßstab wird noch lang sein und viele Herausforderungen wie die Einhaltung der GDPR müssen noch gelöst werden. Selv hat als Plattform eine Reihe einzigartiger Stärken, die für ein langfristiges Identitätsmanagement notwendige Schlüsselaspekte sind:

  • Kostenlos und zugänglich: Die App ist kostenlos und wird Open Source sein. Es fallen keine Gebühren an, um sie zu nutzen.
  • GDPR-konform: Selv ist ein dezentrales System zur Verwaltung persönlicher Daten. Die App und ihre Verwendung von IOTA sind GDPR-konform.
  • Privat & Sicher: Alle persönlichen Daten werden verschlüsselt und auf dem Gerät des Nutzers gespeichert.
    Skalierbar & interoperabel: Selv folgt den W3C-Spezifikationen zur Identität.

Heute und in den vergangenen Monaten haben wir jedoch versucht, über die unmittelbaren Vorteile von SSID hinauszublicken und die Auswirkungen auf unsere eigene Wahrnehmung unserer Identität besser zu verstehen. Die Forschung hat gezeigt, dass wir alle mehrere Identitäten besitzen – Wenn wir mit einem bestimmten Szenario konfrontiert werden, neigt ein und dieselbe Person dazu, sehr unterschiedliche Entscheidungen zu treffen, je nachdem, mit welcher ihrer vielen Identitäten gerade gesprochen wird. Konkret könnte dieselbe Person viel risikofreudiger sein, wenn sie an ihre Rolle als Mutter erinnert wird, im Vergleich zu ihrem Tagesjob als Banker. Solche kleinen Unterschiede in der Art und Weise, wie wir uns selbst wahrnehmen, werden systemisch, wenn sie auf das individuelle Verhalten im großen Maßstab angewendet werden. Das Verständnis von Verhalten ist jedoch hochkomplex und kann nur durch Experimentieren, Forschung und iterative Entwicklung erreicht werden. Zentralisierte soziale Netzwerke haben diesen Ansatz perfektioniert. Sie führen Millionen von Experimenten pro Jahr durch und sind letztendlich in der Lage, unser Verhalten effektiv zu beeinflussen und vorherzusagen. Wir wollen speziell die Lücke zwischen Identität und Nachhaltigkeit schließen und versuchen, ganzheitlichere Vorstellungen von langfristigen Identitäten und digitalem Erbe in dieser Forschungssonde zu erforschen.

Die wichtigsten Ideen hinter der Demo

Wir neigen dazu, Daten als eine Ware zu behandeln. Aber während die Aussicht, Daten zu kontrollieren und individuell monetarisieren zu können, für viele vielversprechend ist, könnten unsere digitalen Daten am Ende der am längsten andauernde Rest unserer Zeit auf der Erde sein und als solcher ein höchst emotionaler und wichtiger Teil unseres Erbes. Die Kontrolle über unsere Daten zurückzugewinnen bedeutet auch, die Kontrolle über unser (digitales) Erbe zurückzuerlangen. Jeder hat eine Leidenschaft für etwas, sei es die Mitarbeit an einem Open-Source-Projekt, die Sorge um andere oder die Umwelt. Diese Dinge formen, wer wir als Individuen sind und wir wollen es mit Freunden und sogar zukünftigen Generationen teilen. Dark Matter Labs konzentriert sich auf die großen Übergänge, die unsere Gesellschaften brauchen, um auf die technologische Revolution und den Klimazusammenbruch zu reagieren, mit dem wir konfrontiert sind. Ihr Ziel ist es, die institutionelle „dunkle Materie“, in diesem Fall Vererbung, zu entdecken, zu gestalten und zu entwickeln, die eine demokratischere, verteilte und nachhaltige Zukunft unterstützt.

Indy Johar, Gründer und Geschäftsführer von Dark Matter Labs, erklärt die Motivation hinter der Entwicklung eines neuen Verständnisses von Vererbung und Erbe: „Eine Reihe von neuen Vererbungs- und Vermächtnismechanismen, die auf dem Rückgrat der aufstrebenden Technologie aufgebaut sind, können Möglichkeiten freisetzen, verschiedene Persistent Selves zu etablieren. Wir können anfangen, darüber nachzudenken, wie wir Individuen dazu anregen können, langfristige, selbstausführende digitale Handlungen über ihr Leben hinaus zu planen, zum Nutzen zukünftiger Generationen. Welche Arten von Erbschaften, jenseits von monetärem Reichtum, können wir weitergeben?

Wohlstand und Einkommen hängen von den Bemühungen und Leistungen der vielen Generationen ab, die vor ihnen kamen. Menschen neigen jedoch dazu, Beziehungen und Abstammungen sowohl zu vergangenen als auch zu zukünftigen Generationen zu unterschätzen, da sie systembedingt nicht in der Lage sind, die Auswirkungen ihrer Handlungen langfristig oder sogar über den Tod hinaus wahrzunehmen. Distributed Ledgers, SSID und das Vertrauen, das sie in Peer-to-Peer-Netzwerken ermöglichen, könnten in der Lage sein, ein Verständnis von sich selbst zu etablieren, das über die Zeit hinweg Bestand hat, um kollektives Handeln mit gemeinsamen, langfristigen Zielen zu fördern, die notwendig sind, um generationenübergreifenden Herausforderungen wie dem Klimawandel und dem rapiden Rückgang der Artenvielfalt zu begegnen.

Über die Demo

Die Persistent Selv Demo wurde mit unschätzbarem Input von Experten auf dem Gebiet der Futures Literacy der UNESCO und der Universität Turku entwickelt. Futures Literacy ist die Fähigkeit, die es Menschen ermöglicht, die Rolle zu verstehen, die die Zukunft für ihr Handeln und ihr Verständnis der Welt spielt. Die Menschen können aufgrund von zwei Tatsachen geschickter darin werden, die Zukunft zu nutzen“, mehr Futures Literate“ zu werden: Erstens: Die Zukunft existiert noch nicht, sie kann nur imaginiert werden. Zweitens: Menschen haben die Fähigkeit, sich die Zukunft vorzustellen. Folglich können Menschen lernen, sich die Zukunft aus unterschiedlichen Gründen und auf unterschiedliche Weise vorzustellen. Bei der Entwicklung der nächsten Generation von Distributed Ledgers stellen wir uns ständig neue, spekulative Zukünfte vor, und die Zusammenarbeit mit Futures Literacy hat es uns ermöglicht, unsere Arbeit besser zu verstehen und zu operationalisieren, um einer aufkommenden, ungewissen Zukunft gerecht zu werden.

Mit der Persistent Selv Demo demonstrieren wir die Idee, wie eine oder mehrere Ihrer Identitäten mit einer gegenwärtigen oder zukünftigen Verpflichtung verbunden werden können, z.B. die Umwelt zu verbessern, den CO2-Fußabdruck zu verringern (verifiziert durch verknüpfte digitale Zertifikate) oder indem Sie digitale Vermögenswerte oder Geldbeträge für nachhaltige Ziele Ihrer Wahl spenden. Über das imaginäre „Good Ancestor Registry“ können Sie Ihre Verpflichtungen unter Wahrung der Privatsphäre mit zukünftigen Generationen teilen, um sicherzustellen, dass Sie Ihre Werte weitergeben und Ihr Erbe durch überprüfbare Nachweise erhalten bleibt.

Die Demo wurde inspiriert von den Gedanken und dem Feedback des öffentlichen Philosophen Roman Krznaric darüber, wie man ein guter Vorfahre ist und wie Gesellschaften im Laufe der Geschichte die Fähigkeit gezeigt haben, für zukünftige Generationen zu planen und langfristig zu handeln. Seine Erkenntnisse über die Solidarität zwischen den Generationen und die soziale Bewegung, die langfristigem Handeln zugrunde liegt, waren entscheidend für die Arbeit an Persistent Selv und das Nachdenken darüber, was einen guten Vorfahren in unserer Zeit ausmacht und wie wir globale Netzwerke schaffen können, um Werte für zukünftige Generationen zu schaffen.

Es war ein faszinierender, aber auch herausfordernder Prozess, diese Denkansätze zusammenzubringen und in etwas Greifbares und Reales zu verwandeln. Wir hoffen, ein experimentelles Konzept anbieten zu können, um Feedback von unserer Community zu erhalten und für die zukünftige Entwicklung unserer eigenen Produkte zu lernen. Da sich das IOTA-Ökosystem rund um digitale Identitäten mit herausragenden Projekten aus der Community und den Open-Source-Identitätsbibliotheken ständig weiterentwickelt, können wir es kaum erwarten, weiter an der Gestaltung der Zukunft der digitalen Identität mitzuarbeiten. Wenn Sie daran interessiert sind, zu erforschen, wie IOTA bei der Schaffung einer nachhaltigeren Wirtschaft helfen kann, kontaktieren Sie uns bitte unter impact@iota.org oder beteiligen Sie sich an der Diskussion im #social_impact-Kanal auf unserem Discord.

  • Um die Demo auf iOS zu testen, laden Sie bitte die Testflight App aus dem App Store herunter: https://testflight.apple.com/join/3FCosIcj
  • Wenn Sie aufgefordert werden, die mobile App auf dem Selv-Desktop herunterzuladen, verwenden Sie die iOS-Kamera-App, um den Desktop-QR-Code mit Ihrem mobilen Gerät zu scannen.
  • Dies führt Sie zum Download-Link für die Selv Demo Mobile Companion App.
  • Wenn Sie TestFlight nicht installiert haben, müssen Sie TestFlight herunterladen, bevor Sie an der Beta teilnehmen. Folgen Sie den Anweisungen unter dem obigen Link.
  • Sobald TestFlight installiert ist, kehren Sie, falls erforderlich, zu Ihrem Webbrowser zurück und nehmen an der Selv-Beta teil. Scannen Sie den obigen QR erneut, wenn Sie diesen Link nicht finden können.
  • Akzeptieren und installieren Sie die mobile App, wenn Sie dazu aufgefordert werden.
  • Sobald sie installiert ist, öffnen Sie die neu installierte Selv Mobile App auf Ihrem Gerät und folgen Sie dem schnellen Onboarding-Prozess, um Ihre digitale Identität zu erstellen.
  • Wenn das Onboarding abgeschlossen ist, kehren Sie zu Ihrem Desktop-Gerät zurück, um die persistente Selv-Erzählung fortzusetzen.
  • Verwenden Sie Ihre Selv mobile App, um nachfolgende QR-Codes zu scannen, wenn Sie auf dem Desktop dazu aufgefordert werden.
  • Um die Demo auf Android zu testen, laden Sie bitte aus dem Play Store herunter: https://play.google.com/store/apps/details?id=com.iota.selv.demo
  • Wenn Sie aufgefordert werden, die mobile App auf dem Selv-Desktop herunterzuladen, verwenden Sie Google Lens, um den Desktop-QR-Code mit Ihrem mobilen Gerät zu scannen.
  • Dies führt Sie zum Download-Link für die Selv Demo-Begleit-App. Sie müssen mit Ihrem Google-Konto angemeldet sein, um fortzufahren.
  • Sie werden aufgefordert, einer Testgruppe beizutreten. Sie müssen dies tun, um Zugriff auf die Selv-Demo-App zu erhalten.
    Folgen Sie allen Aufforderungen, um die Test-App auf Google Play zu installieren.
  • Nach der Installation öffnen Sie die neu installierte Selv Demo App auf Ihrem mobilen Gerät und folgen dem schnellen Onboarding-Prozess.
  • Wenn das Onboarding abgeschlossen ist, kehren Sie zu Ihrem Desktop-Gerät zurück, um mit der persistenten Selv-Erzählung fortzufahren.
  • Verwenden Sie Ihre Selv-Mobil-App, um die nachfolgenden QR-Codes zu scannen, wenn Sie dazu auf dem Desktop-Gerät aufgefordert werden.

Wir hoffen, dass Sie im neuen Jahr viel Spaß mit dieser Demo haben und über die Zukunft nachdenken, die Sie auf IOTA aufbauen wollen. Um die Demo auszuprobieren, klicken Sie hier.

Ein besonderer Dank

Wir möchten Marianna Birmoser Ferreira-Aulu, Nick Balcom Raleigh vom Finland Futures Center an der Universität Turku und Dr. Riel Miller, Leiter der Futures Literacy bei der UNESCO für ihre wertvollen Ratschläge und Kommentare während der Entwicklung von Persistent Selv danken.

Wir möchten uns auch besonders bei Roman Krznaric bedanken, dessen Ideen, Feedback und Schriften zum Thema „Ein guter Vorfahre sein“ die Entwicklung dieses Experiments beeinflusst haben. Mehr Informationen zu seiner Arbeit finden Sie hier.

Dieses Experiment ist nur ein Teil des Puzzles, das die EIT Climate KIC Deep Demonstration on Long-Termism darstellt, und wäre ohne die Zusammenarbeit der gesamten Designgruppe und der Leitung von EIT Climate KIC im letzten Jahr nicht möglich gewesen.

Schließlich möchten wir uns besonders bei unseren Mitarbeitern und Freunden von Dark Matter Labs für ihre unschätzbaren Beiträge und Denkanstöße bei der Gestaltung dieser Demo bedanken. Weitere Informationen zu ihrem Denken über Langfristigkeit können Sie hier finden.

Persistent Selv wurde mit finanzieller Unterstützung von EIT Climate KIC als Teil der Deep Demonstration on Long-termism produziert.

Original by Florian Doebler: https://blog.iota.org/persistent-selv-an-interactive-demo-around-long-term-digital-identity/

Langfristige Zusammenarbeit zwischen IOTA Foundation und EIT Climate KIC

Gestern haben wir Ihnen den Hintergrund unserer Teilnahme an der EIT Climate KIC’s Deep Demonstration on Long-Termism mitgeteilt, den Blogbeitrag finden Sie hier. Heute möchten wir mehr von unseren kollektiven Überlegungen zu den institutionellen und technischen Infrastrukturen teilen, die den systemischen Wandel hin zur Langfristigkeit unterstützen.

Wir freuen uns, mitteilen zu können, dass die IOTA Foundation und EIT Climate KIC ein strategisches Memorandum of Understanding unterzeichnet haben, um die gemeinsame Arbeit in Richtung Langfristigkeit im Jahr 2021 fortzusetzen. EIT Climate KIC als führende europäische Klima-Innovations-Community steht an der Spitze der Bemühungen, ein neues europäisches Netzwerk von Organisationen und Einzelpersonen aufzubauen, die sich für langfristige Nachhaltigkeit und die Gestaltung der Zukunft für kommende Generationen engagieren. Gemeinsam arbeiten wir sowohl an praktischen Experimenten als auch am Aufbau einer Bewegung in Richtung Langfristigkeit, sowohl auf institutioneller als auch auf finanzieller Ebene.

Wie wir in unserem letzten Beitrag diskutiert haben, ist die Gesellschaft meist auf kurzfristigen Gewinn optimiert. Dies ist oft in der dunklen Materie kodifiziert, die unsere Gesellschaften ticken lässt: die stillschweigenden Wege, unser wirtschaftliches Verhalten zu organisieren, die sich oft unserer Aufmerksamkeit entziehen. Bei der IOTA Foundation sind wir grundsätzlich der Meinung, dass eine neue Zeit neuartige Ansätze zur Steuerung erfordert. Als erste gemeinnützige Stiftung in der Europäischen Union, die mit einer Kryptowährungsstiftung finanziert wurde, haben wir Pionierarbeit für solche neuartigen Arrangements geleistet, von denen wir glauben, dass sie dem IOTA-Protokoll auf lange Sicht am besten dienen werden. Das ganze Jahr über haben wir unsere Erkenntnisse geteilt und mit verschiedenen Vordenkern und renommierten Organisationen aus dem Bereich der nachhaltigen Finanzen und Wirtschaft zusammengearbeitet, um Strategien zu entwickeln, wie wir die Struktur schaffen können, um langfristige Impact-Initiativen zu unterstützen.

Um ein Beispiel zu nennen: Eine der wichtigsten Herausforderungen des 21. Jahrhunderts wird die Wiederherstellung von Ökosystemen und den damit verbundenen Lebensgrundlagen sein. Jahrhunderts wird die Wiederherstellung von Ökosystemen und den damit verbundenen Lebensgrundlagen sein. Dies sind jedoch typischerweise langfristige Investitionen – ein geschädigtes Korallenriff braucht vielleicht ein paar Jahrzehnte, um sich zu erholen, ein geschädigter Wald mehrere Jahrhunderte. Um kollektive Maßnahmen zur Wiederherstellung unserer natürlichen Ressourcen zu ergreifen, sind Governance und technologische Infrastruktur nur Mittel für eine breitere Bewegung. Die Partnerschaft zwischen der IOTA Foundation und EIT Climate KIC, zusammen mit einem starken Ökosystem, bietet eine einzigartige Gelegenheit, alle drei Elemente zu kombinieren. Während es Zeit braucht, bis ein solch ehrgeiziges Projekt gedeiht, haben wir bereits große Fortschritte bei der Nutzung von IOTAs Fähigkeiten wie digitale Identität und digitale Überwachungs-, Berichts- und Verifizierungsmethoden gemacht, um neuartige, dauerhafte Netzwerke von sozialem Wert zu schaffen. Das Memorandum of Understanding, das von IOTA und EIT Climate KIC unterzeichnet wurde, ist ein starkes Bekenntnis, diese wichtige Zusammenarbeit im nächsten Jahr und darüber hinaus fortzusetzen und den Umfang unserer Partnerschaft und Initiative zu erweitern.

Dominik Schiener, Vorsitzender des Vorstands der IOTA Foundation, kommentierte die Partnerschaft: „Wir sind stolz auf unsere kontinuierliche Zusammenarbeit mit EIT Climate KIC und die strategische Partnerschaft, die wir in den letzten zwei Jahren aufgebaut haben. Mit der Deep Demonstration on Long Termism leistet EIT Climate KIC Pionierarbeit für missionsgetriebene Innovationsökosysteme, die unterschiedliche Perspektiven zusammenbringen, die für die Schaffung eines systemischen Wandels in Europa notwendig sind. Für die IOTA Foundation ist die Arbeit an Langfristigkeit eine reizvolle Herausforderung: Während wir uns darauf konzentrieren, Dinge zu bauen, die heute einen echten Nutzen für die Menschen haben, müssen wir als sozialwohlorientierte Stiftung sowohl die langfristigen Folgen unseres Protokolls berücksichtigen als auch mit unserer Community und anderen Organisationen zusammenarbeiten, um uns die langfristige Zukunft vorzustellen, die wir gemeinsam ermöglichen wollen.

Wir freuen uns darauf, mehr Informationen über unsere gemeinsame Initiative zu teilen, während wir in den kommenden Monaten vorankommen, und wollen mehr Möglichkeiten für unsere Gemeinschaft schaffen, sich an der kollektiven Gestaltung der Zukunft in Richtung einer nachhaltigen und regenerativen wirtschaftlichen Entwicklung zu beteiligen. Bleiben Sie dran für weitere Einblicke in die experimentelle Forschungssonde, die wir in den letzten Monaten entwickelt haben, morgen im letzten Teil dieser kurzen Blogserie.

Original by Florian Doebel: https://blog.iota.org/long-term-cooperation-iota-foundation-signs-memorandum-of-understanding-with-eit-climate-kic/

IOTA Foundation und EIT Climate KIC auf dem Weg in eine langfristige Zukunft

Dies ist der erste Teil einer dreiteiligen Serie über IOTA mit der tiefgreifenden Demonstration der Langfristigkeit.

Letztes Jahr haben wir mit Stolz unsere Zusammenarbeit mit EIT Climate KIC, der führenden europäischen Klima-Innovations-Community, als Teil der „Deep Demonstration on Long-Termism“ bekannt gegeben. In dieser kurzen Serie möchten wir mit Ihnen unsere Erfahrungen und Erkenntnisse aus diesem neuartigen Ansatz teilen. In diesem Teil werden wir das Konzept des Long Termism erkunden, wie EIT Climate KIC eine vielfältige Gruppe orchestriert, um neue Werkzeuge und Interventionen zu entwerfen und wie die IOTA Foundation zu dieser Initiative beiträgt.

Viele der drängendsten Herausforderungen unserer Zeit, wie der Klimawandel und der Raubbau an Ökosystemen, lassen sich auf kurzfristige Optimierungen in unseren sozialen Systemen und Organisationen zurückführen. Finanzielle Investitionen werden nach ihrer Rendite in wenigen Jahren beurteilt, Ressourcen werden trotz negativer langfristiger Externalitäten ausgebeutet. Doch das muss nicht immer so sein: Im Laufe der Geschichte haben menschliche Gesellschaften ausgeklügelte Wege gefunden und kodifiziert, um die langfristige Nachhaltigkeit ihrer Kultur zu sichern. Ein bemerkenswertes und bekanntes Beispiel dafür ist die sogenannte Sieben-Generationen-Verwaltung, die von den Irokesen praktiziert wurde. Sie verlangt von der gegenwärtigen Generation, zum Nutzen der siebten Generation in der Zukunft zu leben und zu arbeiten und ihre Handlungen auf der Grundlage der Werte und der Arbeit der Generationen, die ihnen vorausgegangen sind, zu reflektieren. Anstatt zu verhindern, akzentuiert die Technologie oft die Defizite, indem sie lokale, bewährte Governance-Strukturen ersetzt und wiederum Mechanismen der systemischen Kurzfristigkeit optimiert und verstärkt. Das muss sich ändern, und dezentrale Technologien könnten unsere beste Chance sein.

Bahnbrechende Innovationen bieten Wege für die Gesellschaft, die vorher undenkbar waren. Bitcoin und in der Folge IOTA können als externe Schocks gesehen werden, die neue Möglichkeiten und in der Tat eine neue Linse für das Verständnis und die Gestaltung unserer Zukunft eröffnet haben. Bei der IOTA Foundation glauben wir, dass es wichtig ist, sich die Mühe zu machen, die dauerhaften Auswirkungen der Technologie, die wir aufbauen, zu verstehen und unser Bestes zu geben, um sie für eine unsichere, aufkommende Zukunft fit zu machen. Die wichtigste Erkenntnis ist: Wir können es nicht selbst tun. In der Deep Demonstration hatten wir das Glück, die Köpfe brillanter Menschen und Organisationen anzuzapfen, unsere Perspektiven auf das Problem zu teilen und einen machbaren Ansatz zu schaffen, um durch die Kombination von institutionellem Re-Design und Experimentieren einen systemischen Wandel anzustoßen.

Dr. Harald Rauter, Head of Emerging Disruptive Technology Experimentation am EIT Climate KIC, erklärt die Motivation hinter der kollektiven Arbeit an Long Termism: „Wir befinden uns in einem einzigartigen Moment, in dem wir kollektiv beginnen, die Dringlichkeit zu erkennen, unser Jetzt für die Möglichkeit einer anderen Zukunft umzugestalten; einer, die klimagerecht, sozial inklusiv und wirtschaftlich prosperierend für alle ist. Die Herausforderung scheint überwältigend zu sein – und vielleicht ist sie das auch. Klar ist, dass wir unsere bekannten Pfade verlassen und uns stattdessen bewusst in einen Raum der Unsicherheit begeben müssen. Ein Raum, der unbequem ist, unangenehm, aber auch der Raum, in dem das wahre transformative Potenzial liegt. Am EIT Climate-KIC haben wir deshalb den Deep-Demonstration-Ansatz ins Leben gerufen, der im Kern darauf abzielt, die Komplexität der Herausforderung anzunehmen – statt sie zu ignorieren.

Aus Sicht von IOTA ist dies eine zentrale Herausforderung: Wie können wir eine Technologie bauen, die einen echten Nutzen bietet und den Menschen heute hilft, während sie gleichzeitig für eine ferne Zukunft ausgelegt ist, die wir uns heute nur vorstellen können? Im Laufe dieses Jahres haben wir daher unsere aktuelle Arbeit kartiert und versucht, ihre Auswirkungen in Zusammenarbeit mit den Designpartnern, insbesondere unseren Freunden von Dark Matter Labs, besser zu verstehen:

  • Internet of (Every)Thing: Wie können wir eine grundlegend neue Art und Weise entwerfen, unsere materielle und natürliche Ressourcenwirtschaft zu organisieren und zu einer Wirtschaft des Teilens und des Wohlstands überzugehen, die menschliche Bedürfnisse in den Vordergrund stellt? Vor einigen Wochen haben wir Ihnen unser Pilotprojekt zur digitalen Überwachung, Berichterstattung und Verifizierung von Maßnahmen zum Klimawandel vorgestellt. Mit solchen vertrauenswürdigen Echtzeitdaten wird die Optimierung für langfristige Nachhaltigkeit einfacher, aber in Wirklichkeit haben wir noch einen langen Weg vor uns, um die Daten von Milliarden von Geräten zu strukturieren und sinnvolle Informationen für alle verfügbar zu machen, anstatt ein zusätzlicher Treiber für systemische Ungleichheit zu sein.
  • Selbstsouveräne Identität: Wie kann das Identitätsmanagement den Einzelnen dazu befähigen, die Kontrolle über seine Daten zu übernehmen und vertrauenswürdige Verbindungen mit anderen und seiner Umgebung herzustellen, die über Jahrzehnte hinweg Bestand haben? Während der Übergang zu einem selbstverwalteten Identitätsmodell an sich schon eine Herausforderung darstellt, sollten wir die dauerhaften Konsequenzen für die Art und Weise bedenken, wie wir unsere digitale Identität wahrnehmen und nutzen.
  • Dezentralisierte Märkte und digitale Assets: Wie können wir öffentliche Institutionen und die Anforderungen, kollektiv in gesellschaftliche Werte zu investieren, sie zu verstehen und von ihnen zu profitieren, neu überdenken? Auf dem Weg zu lokalen Governance-Strukturen können dezentrale Marktplätze und der Austausch von digitalen Assets die Lücke zwischen globaler Koordination und lokalem Handeln schließen.

Eines der wichtigsten Ergebnisse unserer kollektiven Arbeit mit der Designgruppe und dem EIT Climate KIC ist, dass wir 2021 mit einem vernetzten Zwei-Wege-Ansatz weitermachen werden, indem wir uns mit führenden Organisationen zusammenschließen, um die institutionelle Landschaft im Streben nach langfristiger Governance für Nachhaltigkeit und entsprechenden technologischen Innovationen voranzutreiben, während wir gleichzeitig Hypothesen in iterativen Experimenten testen, die unser Verständnis verbessern und den Geist kitzeln und Raum für Fantasie öffnen sollen.

Morgen, im zweiten Teil dieser Serie, werden wir unsere Arbeit zur Förderung der institutionellen Landschaft vorstellen, während Teil drei einen Einblick in unseren experimentellen kollaborativen Designprozess geben wird.

Original by Florian Doebler: https://blog.iota.org/iota-foundation-and-eit-climate-kic-on-the-road-to-a-long-term-future/

IOTA Stronghold Alpha Release

Stronghold ist eine Open-Source-Software-Bibliothek, die ursprünglich zum Schutz von IOTA Seeds entwickelt wurde, aber zum Schutz jedes digitalen Geheimnisses verwendet werden kann. Es ist eine sichere Datenbank für die Arbeit mit Kryptographie, die sicherstellt, dass Geheimnisse (wie der private Schlüssel) niemals preisgegeben werden. Es bietet eine eigene Peer-to-Peer-Kommunikationsschicht, so dass verschiedene Instanzen sicher über das hochmoderne Noise-Protokoll kommunizieren können. Stronghold wird eine sichere Basis für die neue IOTA Firefly Wallet bilden.

In einer zunehmend vernetzten Welt mit intelligenten Geräten, egal ob Telefon, Stromzähler, Fernseher oder sogar Kreditkarte, wird die Bedeutung von echter Sicherheit nur noch wachsen. IoT-Geräte müssen über feindliche Netzwerke sicher miteinander kommunizieren. Jedem, der dies liest, muss klar sein, dass es eine sehr reale Notwendigkeit gibt, Daten wie Identität und digitale Führerscheine vor zentralisierten Hacks zu schützen. Das Problem ist nicht, dass dieses Risiko unbekannt ist. Es ist nur eine sehr schwierige Herausforderung, die richtig zu lösen ist. Wir haben diese Herausforderung angenommen, um das IOTA-Ökosystem zu schützen und Bibliotheken zu bauen, die jeder nutzen kann.

Seit der ersten Ankündigung von Stronghold haben wir das Team vergrößert, die Interna der Engine überarbeitet und Anwendungen erforscht, die mit Stronghold gebaut werden können. Heute freuen wir uns, das Alpha-Release ankündigen zu können, das den Schritt von der Forschung zur Entwicklung vollzieht. Wir haben diese Version „Saint-Malo“ getauft, nach der wunderschönen Festungsstadt an der nordfranzösischen Küste der Bretagne, die nach dem Zweiten Weltkrieg wieder aufgebaut wurde. Dieses einstige Piratenversteck hat sich erholt und überlebt, seine massiven Mauern schützen es vor den gewaltigen Angriffen der Gezeiten.

Sie fragen sich vielleicht, was bedeutet „Alpha“? Was macht manche Software zu „Alpha“ und manche zu „Beta“ – und wann wird sie „stabil“? Diese Stadien in der Software-Entwicklung haben mit der Stabilität des Codes zu tun und mit dem Vertrag, den die Projektingenieure mit den Konsumenten haben. Im Fall von Stronghold, indem wir unser Projekt als „Alpha“-Qualität deklarieren, sagen wir Ihnen, dass wir denken, dass es gut genug ist, um damit zu experimentieren. Wir haben die Theorie in die Praxis umgesetzt, unsere Annahmen überarbeitet und versucht, etwas zu entwickeln, das den Sweet Spot zwischen maximaler Sicherheit und Benutzerfreundlichkeit findet. Wir sind jetzt an dem Punkt, an dem wir Ihr Feedback wollen, das wir in die nächsten Entwicklungsstufen einfließen lassen werden.

Während der Alpha-Phase können Sie davon ausgehen, dass Stronghold weiterhin so funktionieren wird wie jetzt. Wir werden jedoch einige der internen Mechanismen verändern und möglicherweise auch kleinere Aspekte der offenen API ändern. Wir können nicht empfehlen, dass Stronghold heute von externen Parteien in der Produktion eingesetzt wird, da sich die Dinge bis zum Erreichen der Beta-Phase schnell ändern können – insbesondere während der externen Sicherheitsüberprüfung von Firefly und dessen Integration mit Stronghold. Während der Beta-Phase werden wir Stronghold für ein komplettes Sicherheitsaudit vorbereiten, danach werden wir die Spezifikation und Dokumentation für das stabile Release fertigstellen.

Wenn Sie sich jedoch schon jetzt die Hände schmutzig machen wollen und sich im Umgang mit der Kommandozeile wohlfühlen, gibt es hier eine schnelle Möglichkeit, Stronghold zu testen:

Besuchen Sie die GitHub-Releases-Seite, um das vorgefertigte Stronghold-Kommandozeilen-Binary für Ihre Plattform herunterzuladen. Wenn Sie etwas abenteuerlustiger sind und sich mit Rust auskennen, können Sie das GitHub-Repository klonen und es lokal für Ihr System bauen:

git clone git@github.com:iotaledger/stronghold.rs.git

cd stronghold.rs/products/commandline

cargo build –release

Der Rest dieses Artikels wird die Stronghold-Architektur näher erläutern und ist von sehr technischer Natur.

Überblick:

  • Wie sich Stronghold von anderen Datenbanken unterscheidet
  • Stronghold-Engine und internes Akteursmodell
  • Neue Client-Schnittstelle
  • Härtung von Strongholds
  • Dedizierte Kryptographie-Kiste – crypto.rs
  • Releases und sicheres Konsumieren von Stronghold
  • X-Teams

Was ist Stronghold und wie unterscheidet es sich von anderen Datenbanken?

Stronghold ist eine Software-Bibliothek, die in der Programmiersprache Rust geschrieben ist. Sie bietet eine verschlüsselte, persistente Datenbank zur Durchführung kryptographischer Operationen in einer sicheren Rechenzone, die über mehrere Geräte verteilt werden kann. Wir wurden schon oft gefragt, worin der Unterschied zwischen Stronghold und anderen Datenbanken besteht. Dieser lässt sich in drei Hauptunterscheidungen zusammenfassen:

  • Stronghold-Datensätze (und ihre Dateibackups) sind „von Natur aus“ verschlüsselt, um Offline-Angriffe abzuwehren. Bei den meisten anderen Datenbanken müssen Sie die Verschlüsselung selbst vornehmen, durch Bibliotheken, Plugins oder ein zugrunde liegendes verschlüsseltes Dateisystem.
  • Stronghold erlaubt es Ihnen, Operationen mit diesen gespeicherten digitalen Geheimnissen durchzuführen, ohne sie externen Prozessen zu offenbaren, und verhindert, dass diese Geheimnisse jemals in entschlüsselter Form exportiert werden. (Siehe Härtung von Strongholds weiter unten)
  • Mehrere Strongholds können als Netzwerk arbeiten und auf erlaubte, dezentralisierte Weise kommunizieren und zusammenarbeiten. (Erscheint im Januar 2021).

Stronghold-Engine und internes Akteursmodell

https://github.com/iotaledger/stronghold.rs/tree/dev/engine

Bevor wir in die Details der Client-Schnittstelle eintauchen, ist es wichtig, kurz auf die zugrunde liegende Architektur einzugehen.

Strongholds werden durch eine Binärdatei persistiert, die wir einen „Snapshot“ nennen. Diese Dateien sind im Ruhezustand verschlüsselt und können zwischen Geräten und verschiedenen Betriebssystemen transportiert werden. Sobald ein Snapshot entschlüsselt wurde, existiert er als Tresor (oder mehrere Tresore) im Speicher. Um auf einen Datensatz im Speicher zugreifen und ihn entschlüsseln zu können, müssen Sie seinen Pfad kennen. Sobald Sie den Inhalt des Datensatzes haben, können Sie eine Operation mit diesem Datensatz durchführen und die Ergebnisse zurückgeben. Das ist alles sehr kompliziert, und wenn es unsachgemäß gemacht wird, besteht die Gefahr, dass Geheimnisse nach außen dringen, was wir mit Stronghold in erster Linie zu vermeiden versuchen.

Das Actor-Modell ist eine Art von Architektur, bei der einzelne „Actors“ sich gegenseitig Nachrichten schicken, anstatt direkt Funktionen aufzurufen und Speicher herumzureichen. Dies ist ein hervorragendes Muster, das nicht nur eine Prozessisolierung bietet, sondern uns auch erlaubt, Nachrichten an andere Geräte zu senden. Wir haben die Schnittstelle, wie Sie weiter unten sehen werden, so gestaltet, dass Sie nicht gezwungen sind, ein Actor-Modell in Ihrem Code zu verwenden, aber es ist verfügbar, wenn Sie es bevorzugen.

Neue Client-Schnittstelle

https://github.com/iotaledger/stronghold.rs/tree/dev/client

Die gesamte Client-Schnittstelle wurde seit unserer ersten Implementierung neu aufgebaut, wobei das Riker-Akteursmodell und das „ask pattern“ verwendet wurden. Dies erlaubt es Stronghold, seine interne Architektur zu isolieren, ohne eine höhere Bibliothek oder Anwendung zu zwingen, Riker (oder ein anderes Akteursmodell) zu verwenden.

  • Die Schnittstelle kann durch asynchrone Methoden aufgerufen werden, die an das Stronghold-Objekt angehängt sind.
  • Bei jedem Methodenaufruf wird ein temporärer Akteur erzeugt und ein Future an die konsumierende Bibliothek zurückgegeben.
  • Nach Beendigung des Aufrufs wird der Akteur in den Müll geworfen und der Future aufgelöst.

Dies alles ist aufgrund der leichtgewichtigen Akteur-Abstraktionen von Riker möglich.

Das Stronghold-Objekt erzeugt intern mehrere Akteurssysteme, die über einen Client-Pfad-Identifikator definiert werden. Jedes dieser Systeme besteht aus mindestens 2 Akteuren: Einem Cache-Akteur und einem internen Stronghold-Akteur, jeweils mit eindeutigen Bezeichnern, die aus dem Client-Pfad abgeleitet werden. Ein Snapshot-Actor wird aufgespannt, so dass er beim Schreiben eines Snapshots die Daten in allen zugehörigen Client-Systemen gemeinsam kapselt. Umgekehrt wird ein Snapshot, wenn er in das System eingelesen wird, zwischengespeichert und für jedes Paar aus Cache und internem Akteur einzeln gelesen, so dass der Konsument sicherstellen kann, dass die Daten auf vorhersehbare Weise angeordnet werden. Auf diese Weise ist es möglich, einen Teil eines Snapshots oder den gesamten Snapshot zu lesen.

Unter der Client-Abstraktion befindet sich die grundlegende Stronghold-Engine – ein sicheres versioniertes Key-Value-Speicherprotokoll. Dieses System lebt innerhalb des internen Akteurs zusammen mit der zonierten Laufzeit. Die Versionierung wurde über eine Location-API zu einem Opt-in-Feature gemacht. Jeder Standort definiert eine Beziehung zwischen jedem Client-System und den Tresoren und Datensätzen darin. Ein Client ist eine Sammlung von Tresoren und ein Tresor ist eine Sammlung von Datensätzen, wobei jeder Datensatz einen Teil der Daten enthält.

Die Standort-API ermöglicht es dem Verbraucher, einen generischen Standort oder einen Zählerstandort anzugeben. Der generische Speicherort definiert einen Tresor- und Datensatzpfad, der fest ist. Diese generischen Speicherorte verwenden keine Versionierung und können überschrieben werden. Die Speicherortzähler hingegen verwenden einen Zähler, um den Datensatzindex zu definieren. Wenn ein Verbraucher einen Speicherortzähler verwendet, hat er die Möglichkeit, den Zählerwert entweder direkt anzugeben oder das System dies für ihn tun zu lassen. Wenn der Zähler nicht explizit angegeben wird, verwendet das System standardmäßig den „Kopf“ des Tresors. Der Kopf des Tresors wird abhängig von der Operation definiert; wenn die Operation ein Lesevorgang ist, ist der Kopf der letzte Datensatz, der in den Tresor geschrieben wurde, und wenn die Operation ein Schreibvorgang ist, ist der Kopf der nächste Datensatz, der basierend auf dem linearen Zählerwert geschrieben wird.

Neben den grundlegenden datenbankähnlichen Operationen bietet Stronghold über seine Laufzeit eine Reihe von kryptografischen Operationen. Jede dieser kryptografischen Operationen ist als Prozedur definiert. Spezifische Eingaben und Ausgaben werden je nach Bedarf pro Prozedur festgelegt. Wenn zum Beispiel ein Verbraucher wie Firefly einen kryptographischen Seed mit Hilfe einer Mnemonik generieren und dann diesen Seed verwenden möchte, um ein Ed25519-Schlüsselpaar abzuleiten, um ein Stück Daten zu signieren, kann er dies tun, indem er die entsprechenden Prozeduren aufruft. „BIP39 Generate“ könnte aufgerufen werden, um einen Seed aus einer bereitgestellten Mnemonik zu erzeugen. „SLIP10 Derive“ kann auf diesem Seed-Platz aufgerufen werden, um einen Schlüssel zu erzeugen, der wiederum im Stronghold gespeichert wird. „Ed25519 Public Key“ kann nun auf diesem Schlüsselspeicherplatz aufgerufen werden, um den benötigten öffentlichen Schlüssel abzuleiten, und dann kann „Ed25519 Sign“ aufgerufen werden, um Daten zu signieren. Bei diesem Vorgang sind die einzigen Daten, die vom Stronghold zurückgegeben werden, die Signatur und der öffentliche Schlüssel. Alle anderen Daten werden zur Sicherheit innerhalb des Strongholds an den angegebenen Stellen aufbewahrt.

Härten von Strongholds

https://github.com/iotaledger/stronghold.rs/tree/dev/runtime

Einige Betriebssysteme und Hardware-Plattformen bieten einzigartige Möglichkeiten, die Laufzeitsicherheit zu erhöhen. Wir entwickeln daher eine sichere Rechenzone innerhalb von Stronghold, die Prozess-Sandboxing und Syscall-Filterung verwendet, um eine Rechenenklave zu bilden. Wir verwenden auch einen benutzerdefinierten Speicherallokator mit „Guard Pages“, der es uns ermöglicht, den Zugriff auf den Speicher zu beschränken, wenn er nicht benutzt wird. Diese Enklaven-Tools können von anderen Projekten verwendet werden, auch wenn sie nicht den vollen Funktionsumfang von Stronghold benötigen.

Für die Uneingeweihten: Syscall-Filterung ermöglicht es einem Prozess, seine Rechte für den Zugriff auf Betriebssystem-Ressourcen aufzugeben. Ein Beispiel: Warum sollte ein kryptographischer Algorithmus jemals auf das Dateisystem oder sogar auf Dateideskriptoren zugreifen müssen (zur Erinnerung: unter Unix ist alles eine Datei)? Um diese Einschränkungen anzuwenden, gabelt sich der Wrapper vom Hauptprozess ab (z. B. die Wallet-Anwendung, die UI- und Netzwerkcode enthält) und führt dann die sensiblen Operationen aus. Dies bringt auch zusätzliche Vorteile in Bezug auf die Speicherisolierung und potenziell böswillig erzeugte Threads.

Sicherheit von Stronghold

Attribute der sicheren Zone

Die folgenden Merkmale der sicheren Zone werden angewendet (sofern das Betriebssystem sie bereitstellt), um die defensive Tiefe der Gesamtsicherheit des Systems zu erhöhen:

  1.  Prozessisolierung: Fork in die Secure Zone (Laufzeit) und Anwendung einer Acceptlist mit einer sehr restriktiven Menge an erlaubten Syscalls
  2. Speicherverwaltung: Verwenden Sie innerhalb der Secure Zone nur Zuweisungen mit Guard Pages und restriktivem Speicherschutz
  3. Kommunikation: Eingehende Anforderungen (TX) werden aus dem geerbten übergeordneten Speicher gelesen, und das ausgehende Ergebnis (RX) wird verschlüsselt und mit einem ephemeren Schlüssel authentifiziert, der vor dem Forking erzeugt wird.

Es kann auch darauf hingewiesen werden, dass diese Maßnahmen es schwieriger machen, ein bereits kompromittiertes System zu sondieren, d. h. es handelt sich um Defense in Depth, nicht um perfekte Sicherheit. Dafür müssen wir Strongholds auf dedizierter Hardware, wie dem USB Armory Mk-II, herstellen und verteilen.

crypto.rs

https://github.com/iotaledger/crypto.rs

Mit der Entscheidung der IOTA Foundation im Jahr 2019 auf die Programmiersprache Rust umzusteigen, verwenden viele der Software-Bibliotheken und Produkte der Foundation Rust. Es besteht ein wachsender Bedarf an einer ordnungsgemäß überprüften und gepflegten Kryptographie-Bibliothek, die kryptographische Primitive und Algorithmen sammelt, die für Anwendungen in IOTA benötigt werden. Kryptographie muss geprüft, gewartet und ordnungsgemäß überprüft werden.

Leider ist Kryptographie leicht falsch zu machen und Fehler können sehr reale Auswirkungen haben. In der Tat ist dies eines der Hauptziele des IOTA Stronghold-Projekts: Es einfach zu machen, Kryptographie sicher zu benutzen – also setzen wir unsere eigene Philosophie um.

Zu diesem Zweck haben wir bereits die gesamte Familie der von IOTA benötigten Kryptographie integriert:

Releases und sicheres Verbrauchen

Für jede Bibliothek, die auf Sicherheit bedacht ist, ist es wichtig, eine solide Veröffentlichungsstrategie zu haben. Wie viele andere moderne Paketverteilungssysteme, hat Rust das Cargo Crates Ökosystem. Wir veröffentlichen automatisch auf crates.io, indem wir das Covector Polyglot Changelog und den Release-Workflow verwenden, der drüben in der Tauri-Community entwickelt wurde. Covector ermöglicht eine schlüsselfertige Veröffentlichungsprozedur, mit einem Minimum an menschlichen Eingriffen und einer überprüften Pipeline für das Testen, Bauen, Linting, Auditing, Changelogging, Zusammenführen in den Hauptzweig, Erstellen von Git Release Tags, Herstellen von Artefakten (wie das Kommandozeilen-Binary), Veröffentlichen einer neuen Version auf Github und dann Veröffentlichen auf crates.io.

Bis sich Stronghold und Crypto.rs jedoch stabilisiert haben und alle Ressourcen rein über crates.io (und nicht über Git) verfügbar sind, werden unsere Ressourcen nur auf GitHub verfügbar sein. Wir entschuldigen uns dafür, aber wir arbeiten Tag und Nacht daran, die Crates und ihre Dokumentation richtig verfügbar zu machen.

Obwohl es robust und im Allgemeinen stabiler als NPM ist, ist crates.io immer noch zentralisiert und es macht es schwierig, entfernte Crates zu verifizieren. Aus diesem Grund möchten wir empfehlen, dass Ihr Rust-Projekt Stronghold immer über Git-Hashes konsumiert, da Sie auf diese Weise absolut verifizieren können, dass der Code, den Sie erhalten, das ist, was Sie erwarten.

[dependencies.iota-stronghold]

git = „https://github.com/iotaledger/stronghold.rs“

rev = „fdff9f22c087f0c027e4aaa5a8dbc40218e6cf52“

X-Teams

Sie sind erstaunlich, dass Sie diesen ganzen Artikel durchgelesen haben, und deshalb würden wir uns freuen, wenn Sie eng mit uns zusammenarbeiten, um die Zukunft von Stronghold mitzugestalten.

Unabhängig davon, ob Sie sich selbst als Mitglied der IOTA-Community betrachten oder nicht, sind Sie eingeladen, Ihre Erfahrung in Stronghold einzubringen. Dazu bewerben Sie sich bitte über dieses Formular, um in das X-Team aufgenommen zu werden und an dem Kick-Off-Meeting teilzunehmen, das im Januar 2021 stattfinden wird.

Sie können den Fortschritt verfolgen unter: https://github.com/iota-community/X-Team_IOTA_STRONGHOLD

Original Daniel Thompson-Yvetot: https://blog.iota.org/stronghold-alpha-release/

 

IOTA Chrysalis Wöchentliches Update #5

Dieses Update wird jeden Monat vom IOTA-Entwicklungsteam veröffentlicht und versorgt Sie mit Neuigkeiten und Updates zu unseren wichtigsten Projekten! Bitte klicken Sie hier, wenn Sie das letzte Status-Update sehen wollen.

Die Forschungsabteilung gibt auch ein monatliches Update heraus, das Sie vielleicht lesen möchten.

IOTA 1.5

IOTA 1.5 (auch bekannt als Chrysalis) ist die Zwischenstufe des Mainnets, bevor Coordicide fertiggestellt wird. Sie können hier mehr über die Strategie zur Freigabe von Chrysalis lesen.

Die Komponenten der Chrysalis-Phase 1 wurden im August in das Mainnet eingespielt. Das Engineering-Team arbeitet nun an Chrysalis Phase 2.

Implementierung von Chrysalis Phase 2

Anfang dieser Woche haben wir das Chrysalis-Testnetz für die Öffentlichkeit zugänglich gemacht. Dies ermöglicht es uns, alle Chrysalis-Komponenten in der Öffentlichkeit zu testen und die verbleibenden Funktionen und Produkte hinzuzufügen. Zum Beispiel wird Firefly bald verfügbar sein, zunächst für eine begrenzte Anzahl von Testern.

In den Wochen zwischen den monatlichen Entwicklungs-Updates veröffentlichen wir nun auch wöchentliche Updates zum Fortschritt von Chrysalis Phase 2. Über die Feiertage wird es etwas ruhiger zugehen, aber im neuen Jahr werden wir wieder mit voller Kraft dabei sein. Wenn Sie daran interessiert sind, was über die Feiertage passiert, schauen Sie unbedingt in unserem Discord vorbei!

Pollen

Das Team hat letzte Woche das Update 0.3.2 und einige Folgeversionen mit verschiedenen Fixes veröffentlicht. Das Update fügte FPC-Anweisungen, uhrzeitbasierte Zeit zu Nachrichten-Metadaten und mehr hinzu. Das Team konzentriert sich derzeit auf Marker, Epochen und Refactoring des Ledger-Status und des Branch-Managers.

Sie können mehr über Pollen, Nectar und Honey, Konzepte, die wir eingeführt haben, um über die Meilensteine auf dem Weg zu Coordicide zu sprechen, in diesem Beitrag lesen.

Sie können das Projekt auf seinem GitHub Repository verfolgen. Wenn Sie sich beteiligen wollen, schauen Sie sich unsere aktualisierten Richtlinien für die Mitarbeit an.

Bee

Das Bee-Team hat einen großen Teil der für Chrysalis Phase 2 notwendigen Implementierungen abgeschlossen. Dazu gehören alle neuen Node-APIs, die Nachrichtenverarbeitung, die Speicherschicht, lokale Snapshots und mehr. Es gibt nur noch wenige offene Punkte, bevor die Nodeimplementierung offiziell dem Chrysalis-Testnetz beitritt.

Das neue Node-Dashboard, das für die Chrysalis-Phase 2 entworfen und implementiert wurde und das mit Hornet geteilt werden wird, wird ebenfalls verdrahtet.

Das Team hat auch neue Live-Coding-Sessions veröffentlicht. Eine der Sitzungen zeigte das Einrichten von Bee im privaten Chrysalis-Testnetz.

Sie können alle Bee RFCs in ihrem jeweiligen GitHub Repository finden.

Hornet

Das Hornet-Team hat erhebliche Fortschritte bei der Implementierung der Änderungen der Chrysalis-Phase 2 in der Node-Software gemacht. Das Team hat Delta-Snapshots integriert, bech32-Kodierung zur REST-API hinzugefügt, das neue Node-Dashboard integriert und an der Einrichtung des öffentlichen Chrysalis-Testnetzes gearbeitet.

Sie können bereits einen Hornet auf dem öffentlichen Chrysalis Testnet einrichten. Zum Beispiel mit der Anleitung von Svenger87#8523 (Danke!).

Smart Contracts

Wir haben die Pre-Alpha-Version von IOTA Smart Contracts veröffentlicht. Sie können alles darüber in diesem Blog-Post lesen. Das Team hat sich stark darauf konzentriert, die Rust-Umgebung zu refaktorisieren und die als PoCs implementierten Smart Contracts an die refaktorisierte Form anzupassen. Die Kommunikationsschicht der Wasp-Knoten wurde refaktorisiert, UDP-Messaging wurde zusammen mit TCP hinzugefügt. Eine neue DKG mit Rabin-Algorithmus wurde in den Kerncode integriert. Das Design und die Entwicklung des Datenschemamodells für Client-Bibliotheken und Smart Contracts ist im Gange. Eine Reihe von eingebauten Kern-Smart-Contracts wurde geschrieben, einschließlich derjenigen für die On-Chain-Konto- und Gebührenverwaltung (dieser Aufwand ist noch nicht abgeschlossen).

Ein eigenständiges Smart-Contract-Testing-Tool für Wasm und integrierte Verträge in der nativen VM-Umgebung auf mehreren Chains wurde implementiert. Dies wird den Entwicklungsprozess erheblich beschleunigen. Eine weitere Anstrengung war die Entwicklung einer Rust/Wasm-Smart-Contract-Programmierumgebung und das Schreiben von PoC-Smart-Contracts und Unit-Tests für diese, einschließlich ERC-20-Smart-Contracts unter anderem. Dies ermöglicht es uns, praktische Erfahrungen zu sammeln und das Potenzial von ISCP und der Rust/Wasm-Programmierumgebung zu bewerten.

Sie können die Updates in den Kanälen #smartcontracts-discussion und #smartcontracts-dev auf Discord verfolgen.

Stronghold

Der letzte Schliff von Stronghold befindet sich in der Fertigstellungs- und Verifizierungsphase und die Alpha-Veröffentlichung steht unmittelbar bevor. Wir haben ein komplettes Client-Interface gebaut und getestet, das intern Riker nutzt und sich gut in ein größeres Riker-basiertes Projekt einfügen wird. Das Adressieren von Datensätzen im Tresor ist jetzt einfacher und wir haben einen neuen Typ von Tresor eingeführt, der es erlaubt, nicht-versionsveränderliche Daten zu speichern und abzurufen. Wir haben den Snapshot-Actor überarbeitet, um nicht nur die Performance beim Aktualisieren zu verbessern, sondern auch Korruptionsprobleme zu beheben, die in frühen Tests auftraten – dank der engen Zusammenarbeit mit dem Wallet-Team und der unermüdlichen Arbeit von Tensor, der sich dem Stonghold-Projekt über ein EDF-Stipendium wieder angeschlossen hat.

Wir haben sowohl die Laufzeit- als auch die Kommunikationskiste eingebunden, die der Client intern konsumiert – und die auch von anderen Projekten genutzt werden kann, ohne eine harte Abhängigkeit von Stronghold zu benötigen. Die Runtime ist ein sicherer Speicherallokator und eine sichere Berechnungszone, was im Grunde bedeutet, dass kryptographische Operationen mit privaten Schlüsseln / Seeds in einem geforkten Prozess mit weniger Berechtigungen durchgeführt werden. Es muss für jede Plattform handgefertigt werden – aber derzeit ist Linux auf 64-Bit-Maschinen die „robusteste“, mit mehr auf dem Weg. Die Kommunikationskiste basiert auf libp2p, und wird es Strongholds auf verschiedenen Geräten (oder Anwendungen) erlauben, sicher miteinander zu kommunizieren. Wir haben validiert, dass der Kommunikationsdienst wie erwartet zwischen einem USB Armory mk ii und einem Ubuntu-Host-Laptop funktioniert.

Die gesamte benötigte Krypto wird nun von crypto.rs bezogen – einschließlich bip39 und slip10. Wir sind dabei, das vollautomatische Release-Verfahren mit CI abzuschließen. Wenn alles fertig ist, werden wir einen neuen Blogpost veröffentlichen, der sich ausführlich mit der Alpha-Version von Stronghold beschäftigt.

Wallet

Das Team arbeitet weiter an der Fertigstellung des Dashboards und der Einstellungen sowie an der Anbindung des Frontends an wallet.rs. Da der Stronghold-Refactor nun abgeschlossen ist, können wir auch die letzten Stronghold-Änderungen in wallet.rs integrieren.

Ein Großteil des Wallet-Teams war damit beschäftigt, das Chrysalis-Testnetz vorzubereiten. Dies war eine nützliche Übung, um wallet.rs als Bibliothek zu testen, mit seiner ersten vollständigen Implementierung in der neuen CLI-Wallet. Dies hat nützliche Konsequenzen für Firefly, da Fehler und Probleme noch vor der Implementierung in der Wallet gefunden werden.

Wir sind auch dabei, die Strings in der App zu finalisieren, was uns erlauben wird, sie für die Übersetzer der Community zu öffnen. Wenn Sie daran interessiert sind, Firefly zu übersetzen, dann halten Sie Ausschau nach einer baldigen Ankündigung dazu.

IOTA Identity

Mit dem Abschluss des EDF-Zuschusses ist das Team derzeit dabei, einige Funktionen zu überarbeiten, zu dokumentieren und zu finalisieren, bevor die Version 0.2 veröffentlicht wird. Diese Version wird einige IOTA-spezifische Funktionen enthalten, die eine schnelle Authentifizierung von Identitäten mit einer reichhaltigen Historie von Updates ermöglichen. Zusätzlich werden wir ein weiteres IOTA einzigartiges System einführen, um Credentials mit maximaler Privatsphäre zu widerrufen, so dass keine persönlichen Informationen oder Hashes an IOTA veröffentlicht werden müssen. Dies bietet eine Garantie, dass unsere verifizierbare Credential-Implementierung 100% GDPR-konform sein wird. Dieses Update wird nach den Feiertagen fertiggestellt werden.

IOTA Streams

Wir haben kürzlich eine neue Version von Stream, 1.0.1, veröffentlicht. Diese Version bietet eine verbesserte Fehlerbehandlung mit einem zentralisierten Nachrichtenstandort und behebt den Fehler mit dem Nachrichtenlimit bei den Client-Anfragen. Die Version fügt auch zusätzliche Funktionen für c-Bindungen hinzu.

Das Team hat außerdem eine Stream-Implementierung gepflegt, die mit Chrysalis Phase 2 kompatibel ist.

Chronicle

Das Chronicle-Team arbeitet nun an einem RFC für die selektive Permanode-Funktionalität und die Solidifier-Funktionalität. Das Team war auch stark an der Stärkung der Infrastruktur beteiligt, die unseren Explorer betreibt.

IOTA Experience Team

Das IOTA Experience Team ist seit dem Start im Mai dieses Jahres auf 38 sehr engagierte Mitglieder angewachsen.

In diesem Monat übernahmen die GoShimmer X-Team-Mitglieder Dave [EF] und Dr.Electron die Verantwortung für den Aufbau des von der Community betriebenen Komitees für den verteilten Zufallszahlengenerator mit elf Mitgliedern der IOTA-Community. Mehr Details dazu in einem kommenden Blog-Post.

Alle X-Team-Mitglieder wurden eingeladen, die Chrysalis-Upgrades zu testen und ihr Feedback im Chrysalis-Testnetz mit den Mitgliedern der IOTA Foundation zu teilen, bevor es für alle veröffentlicht wurde.

Diesen Monat begrüßen wir Martin N, NO8ODY und alaakaaazaaaam in den X-Teams.

Erfahren Sie mehr über diese Initiative und die Ziele in diesem GitHub-Repository.

Jeder ist zu den IOTA Experience Teams eingeladen, um den Weg für IOTA zu ebnen, um die beste Erfahrung im DLT- und IoT-Bereich zu haben. Entdecken Sie das IOTA Experience Team auf GitHub, erkunden Sie die IOTA Experience-Initiativen und bewerben Sie sich dann über dieses Formular.

Wie immer heißen wir jeden willkommen, auf Discord vorbeizuschauen – jedes hier erwähnte Projekt hat einen Kanal (oder mehr) für die Diskussion mit den Entwicklern!Folgen Sie uns auf Twitter, um über alle Neuigkeiten auf dem Laufenden zu bleiben: https://twitter.com/iotatoken

Original by Jakub Cech: https://blog.iota.org/dev-status-update-december-2020/

eClass stellt ein neues Konzept für die Digitalen Zwillinge vor

Das neue ECLASS-Whitepaper stellt ein Konzept einer Distributed-Ledger-basierten Infrastruktur für das Identitäts- und Zugriffsmanagement für industrielle digitale Zwillinge vor. Damit wird ein wichtiger Meilenstein auf dem Weg zu den zukünftigen offenen globalen Industrie 4.0-Ökosystemen erreicht.

Im Rahmen dieses Whitepapers wird ein Ansatz zur Realisierung einer gemeinsamen dezentralen Registry für industrielle Digitale Zwillinge vorgestellt.

Fünf praxisrelevante Use Cases erläutern, wie diese dezentrale Registry in der Praxis umgesetzt und angewendet werden kann. Die Anwendungsfälle zeigen, wie die Digitalen Zwillinge und die sie umgebenden Dienste in der Registry registriert und von den Nutzern in verschiedenen Lebenszyklusphasen abgerufen werden können. Darüber hinaus zeigen die Anwendungsfälle, wie die Nutzer von Industrieanlagen mehrere Digitale Zwillinge mit der gleichen Anlage verknüpfen können und wie diese Digitalen Zwillinge anhand einer eindeutigen Anlagen-ID gefunden werden können. Weitere Anwendungsfälle beschreiben die Möglichkeit, die im Digitalen Zwilling bereitgestellten Informationen durch Dritte zu qualifizieren sowie ein dezentrales Identitäts- und Zugriffsmanagement für die im dezentralen Register aufgeführten Dienste zu implementieren. In diesem Konzept wird der ECLASS-Standard hauptsächlich zur Beschreibung der Dienste sowie der Attribute innerhalb von Zertifikaten zur Autorisierung und Qualifizierung von Digitalen Zwillingen verwendet. Die in diesem Whitepaper angesprochenen Herausforderungen sind für verschiedene Domänen relevant, z.B. Automotive, Energie, Handel und Logistik. Um konkreter zu werden, konzentriert sich das White Paper auf die Anforderungen der Industrie 4.0 und erläutert die Lösungskonzepte anhand der technischen Spezifikationen der Asset Administration Shell, der standardisierten Implementierung des Digitalen Zwillings, die von der „Plattform Industrie 4.0“ und der „Industrial Digital Twin Association“ vorgeschlagen wird.

Was ist der Digitale Zwilling?

Die fortschreitende Digitalisierung, die zunehmende Vernetzung und die horizontale Integration in den Bereichen Einkauf, Logistik und Produktion sowie im Engineering, der Wartung und dem Betrieb von Maschinen und Produkten schaffen neue Möglichkeiten und Geschäftsmodelle, die vorher nicht denkbar waren. Klassische Wertschöpfungsketten verwandeln sich mehr und mehr in vernetzte Wertschöpfungsnetzwerke, in denen die Partner nahtlos die relevanten Informationen finden und austauschen können.

Maschinen, Produkte und Prozesse erhalten ihre Digitalen Zwillinge, die alle relevanten Aspekte der physischen Welt in der Informationswelt abbilden. Durch die Kombination von physischen Objekten und ihren Digitalen Zwillingen entstehen sogenannte Cyber Physical Systems.

Über den gesamten Lebenszyklus müssen die im Digitalen Zwilling erfassten relevanten Produktinformationen und Produktionsdaten den Partnern der Wertschöpfungskette jederzeit und an jedem Ort zur Verfügung stehen. Die digitale Abbildung der realen Welt in der Informationswelt, in Form des Digitalen Zwillings, gewinnt daher zunehmend an Bedeutung. Die angestrebte horizontale und vertikale Integration und Kooperation aller Teilnehmer des Wertschöpfungsnetzwerks über Unternehmensgrenzen, Länder und Kontinente hinweg kann jedoch nur auf der Basis gemeinsamer Standards gelingen.

Was ist die Asset Administration Shell?

Die sogenannte Asset Administration Shell (AAS) ist ein gemeinsames Konzept der „Plattform Industrie 4.0“ und von Industrieverbänden wie dem VDMA (Verband Deutscher Maschinen- und Anlagenbau e.V.) und dem ZVEI (Zentralverband Elektrotechnik- und Elektronikindustrie e.V.) sowie der „Industrial Digital Twin Association“ zur Realisierung des Digitalen Zwillings. Der AAS soll die standardisierte Basis werden, um die vierte industrielle Revolution voranzutreiben und innovative Anwendungen zu realisieren.

Die Kernelemente eines AAS sind standardisierte, maschineninterpretierbare Informationsmodelle, die die Attribute, Konfigurationsparameter, das Verhalten und die Fähigkeiten von Produkten, Anlagen, Maschinen und deren Komponenten in Form von standardisierten Eigenschaften darstellen. ECLASS spielt in diesem Zusammenhang eine wichtige Rolle. Der ECLASS-Standard wird von der Industrie 4.0-Community als gemeinsames Vokabular und Lieferant von standardisierter Semantik für den interoperablen Informationsaustausch zwischen Digital Twins gesehen.

Was ist ECLASS?

ECLASS hat sich international als einziger ISO/IEC-konformer Industriestandard etabliert und ist damit der weltweite Referenzdatenstandard für die Klassifizierung und eindeutige Beschreibung von Produkten und Dienstleistungen. Mehr als 4.000 Kunden nutzen bereits erfolgreich die 45.000 Klassen und 19.000 Eigenschaften von ECLASS in 16 Sprachen für den digitalen Datenaustausch. Neben den klassischen Anwendungen in Beschaffung, Controlling, Produktion und Vertrieb zeigt ECLASS seine besonderen Stärken beim Einsatz im unternehmensübergreifenden Prozessdatenmanagement und in Engineering-Funktionen. Der im Jahr 2000 gegründete Verein ECLASS e.V. ist eine Non-Profit-Organisation, die von Unternehmen, Verbänden und Institutionen aus den unterschiedlichsten Branchen und Wirtschaftszweigen getragen wird. Ihr gemeinsames Ziel ist es, den ECLASS-Standard entsprechend den aktuellen und zukünftigen Marktanforderungen auszubauen und seine internationale Anwendung zu fördern.

Warum ist ein gemeinsames Registrierungs- und Identitätsmanagement so wichtig, um Industrie 4.0 zu meistern?

Um die gewünschten flexiblen Wertschöpfungsketten zu schaffen, reichen die einzelnen Digitalen Zwillinge allein nicht aus. Die Assets und ihre Digital Twins müssen in einem offenen digitalen Ökosystem eindeutig identifizierbar und auffindbar sein.

Die derzeit in der Industrie 4.0-Community diskutierten Konzepte basieren auf dem klassischen zentralisierten Ansatz, bei dem die zentralen Plattformen der Vertrauensanker sind, der die Registrierung, das Identitätsmanagement, die Authentifizierung und Autorisierung der Digitalen Zwillinge in einem gemeinsamen Netzwerk übernimmt.

Der zentralisierte Ansatz ist sicherlich ein erster gültiger Schritt zur kurzfristigen Realisierung von Industrie 4.0-Anwendungen, entspricht aber nicht vollständig den langfristigen Visionen von Industrie 4.0, die den stark dezentralen Charakter zukünftiger digitaler Ökosysteme ohne Komponenten, die eine zentrale Monopolstellung einnehmen können und deren Nichtverfügbarkeit den sicheren Betrieb des Gesamtsystems beeinträchtigen kann, betonen.

Distributed Ledger-basierte Infrastruktur im White Paper vorgestellt

Das neue ECLASS-Whitepaper stellt einen Ansatz zu einer vollständig verteilten Lösung der wesentlichen Aufgaben des Identitäts- und Zugriffsmanagements durch die Kombination von DLT, der W3C-Spezifikation dezentraler Identifikatoren (DID), der AAS- und ECLASS-Semantik vor und erläutert, wie dadurch mehrere Nachteile zentralisierter Systeme überwunden werden können.

DLT als dezentrales Register von AAS: Architektur und Interaktionen der beteiligten Parteien.

Die Abbildung 1 zeigt die Gesamtarchitektur des im White Paper vorgeschlagenen dezentralen Registers, das auf dezentralen Identifikatoren (DIDs) und DLT basiert. Dies lässt sich anhand des Grundszenarios erklären. Unternehmen, zum Beispiel die Hersteller, betreiben die Digital Twins verschiedener Assets in ihren privaten vertrauenswürdigen Netzwerken. Die Partner in der Wertschöpfungskette, die das Asset gerade betreiben, wollen auf den Digitalen Zwilling dieser Assets zugreifen. Die genauen Informationen über den Endpunkt (Port und Kommunikationstechnologie, die sie verwenden müssen), um auf den Digitalen Zwilling zuzugreifen, sind dem Asset-Betreiber nicht bekannt. Die Asset-Betreiber kennen nur die DID des Digitalen Zwillings, die sie aus einer eindeutigen Asset-ID ableiten können. Die Registrierung eines Digitalen Zwillings (Schritt 1) erfolgt durch die Einreichung eines DID-Dokuments, das als Transaktion in einem gemeinsamen Datensatz (Distributed Ledger) gespeichert wird. Dieses Dokument wird durch die Digital Twin ID referenziert (Schritt 2), die in diesem System die DID ist, die sich aus der eindeutigen Asset ID ableiten lässt.

Der Asset-Betreiber verbindet sich mit einem der öffentlichen Netzwerkknoten des DLT-Systems und findet die entsprechende Transaktion im Datensatz. Aus dieser Transaktion kann das DID-Dokument extrahiert werden. Das DID-Dokument enthält eine maschinenlesbare Beschreibung, wie auf den Digitalen Zwilling zugegriffen werden kann, einschließlich Endpunktinformationen. Auf den Digitalen Zwilling kann dann von außerhalb des DLT-Netzwerks zugegriffen werden.

Die Abbildung 2 zeigt, wie die Dienste des Digitalen Zwillings selbst innerhalb dieser dezentralen Registry, innerhalb des DID-Dokuments, definiert werden können.

IOTA Specification

Alle mit einem Digitalen Zwilling verbundenen Dienste können innerhalb des dezentralen Registers im entsprechenden DID-Dokument aufgeführt werden. Für die Definition der Dienste ist der ECLASS-Katalog ein wesentlicher Bestandteil, um sicherzustellen, dass die Dienste semantisch korrekt und maschinenlesbar beschrieben werden. Sobald der Konsument auf das DID-Dokument zugegriffen hat, kann er dieses abrufen und hat damit alle Informationen für den Zugriff auf den Digitalen Zwilling zur Hand.

Der Controller des DID ist dafür verantwortlich, alle erforderlichen Informationen innerhalb des DID-Dokuments bereitzustellen, die die Dienste des Digitalen Zwillings beschreiben. Das DID-Metamodell gibt dem Ersteller eines DID Anweisungen, wie er das entsprechende DID-Dokument strukturieren und aufbauen muss, um Kompatibilität und semantische Korrektheit zu gewährleisten.

IOTA Tangle als Infrastruktur für digitale Zwillinge

Technisch gesehen können die im White Paper vorgestellten Konzepte von fast jeder DLT umgesetzt werden. Allerdings ist nicht jedes DLT geeignet, um die Basis für die von Industrie 4.0 angestrebten offenen digitalen Ökosysteme zu werden.

Die Anforderungen an ein solches zukünftiges digitales Ökosystem sind in der Vision 2030 für Industrie 4.0 explizit genannt: Offenheit, Dezentralität, Unterstützung von Heterogenität und Vielfalt im Markt, keine Teilnehmer mit übergeordneten Rollen und Monopolstellungen.

In privaten und konsortialen Blockchains werden beispielsweise die Steuerungsaufgaben an eine qualifizierte und bekannte Partei oder Gruppe vergeben, was dieser Gruppe automatisch die überlegenen Rechte und eine Art Monopolstellung gegenüber den restlichen Teilnehmern gibt. Per Definition implizieren private und konsortiale Blockchains keinen offenen Charakter des Netzwerks und Ökosystems.

Öffentliche Blockchain-Netzwerke haben noch erhebliche Mängel: niedrige Transaktionsrate, begrenzte Skalierbarkeit und extrem hoher Energieverbrauch. Darüber hinaus ist der Kauf von elektronischer Währung (Kryptowährung) notwendig, um die Informationen zu übertragen. Das ist oft mit erheblichen regulatorischen Hürden und übermäßigem Verwaltungsaufwand verbunden. Darüber hinaus ist eine Tendenz zur De-facto-Zentralisierung der „Miner“ auf wenige große Mining-Pools zu beobachten.

IOTA löst die grundlegenden Defizite der Blockchain und stellt als Open-Source-Technologie eine Alternative zu öffentlichen Blockchains dar. IOTA Tangle bietet als globales öffentliches Netzwerk die notwendigen Eigenschaften, um eine Basis für die Infrastruktur zukünftiger offener digitaler Industrie 4.0-Ökosysteme zu werden.

Da das IOTA-Netzwerk keine Transaktionsgebühren verlangt, können die im Rahmen des ECLASS-Whitepapers benötigten Datentransaktionen kostenlos abgewickelt werden. Die Möglichkeit, auch Finanztransaktionen, einschließlich Mikrotransaktionen, mit IOTA zu versenden, erlaubt einen einfachen Wechsel zu Geschäftsmodellen, die Mikropayments nutzen.

Durch das breite Ökosystem von Anwendern und Anwendungsfällen fließen die gesammelten Erfahrungen ständig in die Weiterentwicklung von IOTA ein und entsprechen den Anforderungen, das Standardprotokoll für das IoT und offene digitale, unternehmensübergreifende Ökosysteme zu werden.

Als Weiterentwicklung der im ECLASS Whitepaper vorgestellten Konzepte wird die Integration mit der IOTA Open Source Technologie den Anforderungen an Sicherheit, Datenintegrität und Datenhoheit gerecht. Integrierte Layer-2-Funktionalitäten wie IOTA Access können eine Grundlage für die Verwaltung von Zugriffsrechten auf industrielle Assets und deren Digital Twins bieten. IOTA ist so konzipiert, dass es hoch skalierbar und komplementаr ist und ein harmonisches Ganzes bildet, um die Visionen der I40 zu realisieren.

Das IOTA-Mainnet wird Schritt für Schritt auf die vollständige Dezentralisierung vorbereitet. Mit den neuesten Updates auf IOTA 1.5, wird es schnell unternehmensfähig. Das erste Testnetz bietet die beste Gelegenheit für Unternehmen, Industrieverbände und Konsortien, ihre Ideen zu erforschen, neue Produkte und Geschäftsmodelle auf dem IOTA-Netzwerk zu entwickeln und die vierte industrielle Revolution gemeinsam zu gestalten und zu meistern.

Autoren: Alexander Belyaev & Alaettin Dogan

Original: https://blog.iota.org/eclass-presents-the-distributed-ledger-based-infrastructure-for-industrial-digital-twins/

Neue Partnerschaft zwischen Blackpin und IOTA

Die Ermutigung, flexibel aus der Ferne zu arbeiten, hat in den letzten Monaten stark zugenommen. Wo früher Vor-Ort-Meetings als Haupttreiber für Vertrauen und Zusammenarbeit und damit für die Wertschöpfung angesehen wurden, hat sich ein neuer Paradigmenwechsel zur Zusammenarbeit aus der Ferne als effektiv erwiesen und findet schnell seinen Platz in neuen Kollaborationsmodellen.

Durch den Aufbau einer sicheren digitalen Service-Plattform für den europäischen Markt, basierend auf seinem GDPR/DSGVO-konformen mobilen Messenger, bringt Blackpin Mitarbeiter und Einzelpersonen innerhalb der Wertschöpfungskette von Unternehmen zusammen, indem es eine sichere und europäische B2B-Messenger-Alternative für digitale Services bereitstellt. Während Messaging-Systeme in Unternehmen hauptsächlich auf die interne Zusammenarbeit ausgerichtet sind, arbeitet Blackpin als B2B-Serviceplattform, um den Daten- und Informationsaustausch zu erleichtern und bietet gleichzeitig die zugrundeliegende Lösung für rechtsverbindliche Verträge und Abrechnungen. Zum Beispiel, um Rechtsberatung pro Minute zu bezahlen, basierend auf Geoinformationen, oder um eine Zahlung direkt mit einem Dienstleister zu ermöglichen. Dies reduziert die Reibung und den Prozess-Overhead, was Zeit- und Kosteneinsparungen für alle beteiligten Parteien bedeutet.

Wir freuen uns, ankündigen zu können, dass IOTA mit seinem skalierbaren Design und dem Fokus auf Datenunveränderlichkeit die Basis für Blackpin bilden wird, um einen sicheren Datenaustausch zu ermöglichen und vertragsrelevante Informationen zu speichern. IOTAs wachsendes Ökosystem und Funktionalitäten wie Digitale Identität, Smart Contracts, Digital Asset Management und Micropayments bieten eine digitale Vertrauensinfrastruktur, die Blackpins unterschiedliche Anforderungen erfüllt, alles integriert in einer Open-Source-Technologie. Vor allem das grundlegend andere Design und die Null-Transaktionskosten sind ein primärer Faktor, um die öffentliche Infrastruktur zu nutzen, ohne die finanziellen, rechtlichen und regulatorischen Aspekte für Unternehmen, um Cryptocurrency zu erwerben und zu verwalten. IOTA entschärft somit die Engpässe der traditionellen Blockchain-Technologie.

In der Tat haben wir noch viel zu tun. Ähnlich wie WeChat in China im C2C-Bereich soll unsere Technologie im B2B-Bereich möglichst europaweit eingesetzt werden“, blickt Sandra Jörg, CEO von Blackpin, in die Zukunft. „Umso mehr freuen wir uns, dass wir zwei so starke Partner für dieses Projekt gewinnen konnten. Mit Tobias Schmailzl als neuem CTO bei Blackpin haben wir einen sehr erfahrenen und visionären Experten an Bord, so dass wir perfekt aufgestellt sind, um unsere Vision gemeinsam zu verwirklichen. Wir freuen uns sehr auf die zukünftige Zusammenarbeit.

Dominik Schiener, Mitbegründer von IOTA, bestätigt: „Für die Realisierung dieser digitalen Workflows sind wir mit unserer Open-Source-Lösung die richtige Wahl für ein solch innovatives, technologisch anspruchsvolles und zukunftsorientiertes Projekt. Wir sehen Blackpin als das perfekte Front-End, um Millionen von Nutzern den Zugang zu unserer Technologie zu ermöglichen. Deshalb wollen wir uns gemeinsam als Partner dieser Herausforderung stellen und eine Lösung für das agile Arbeiten der Zukunft aufbauen – unabhängig von Ort und Zeit, in einer digitalen Welt von morgen.

IOTA als Technologiepartner macht für uns absolut Sinn„, sagt Tobias Schmailzl, CTO bei Blackpin und Geschäftsführer von PlanB. „Mit seinem dezentralen Zahlungssystem und weiteren Features, die auf der Distributed-Ledger-Technologie (ähnlich der Blockchain) basieren, hat diese Technologie die besten Voraussetzungen für eine langfristige strategische Partnerschaft. Schließlich ist IOTA die optimale Lösung für die sichere Kommunikation und Bezahlung zwischen Mensch und Maschine im Kontext von (i)IoT-Themen.

Holger Köther von der IOTA Foundation verdeutlicht: „Die Partnerschaft ist für uns sehr spannend. Datenintegration und Kollaboration sind zwei der Schlüsselmerkmale von Blackpin, um mehrere Akteure in einer Wertschöpfungskette zusammenzubringen, die auf eine agile Art und Weise zusammenarbeiten und Transaktionen durchführen können, die am besten zu ihrem Geschäft passt. Blackpin ermöglicht so neuartige Geschäftsmodelle und Kooperationen, eine rechtssichere Dokumentation und eine genaue Abrechnung zwischen einer Vielzahl von Parteien, basierend auf der sicheren und quelloffenen Technologie von IOTA.

HelloIOTA Spezial

Auch Chris Müller, der Moderator von HelloIOTA, der regelmäßig die wöchentlichen Entwicklungen von IOTA in einem unterhaltsamen YouTube-Format zusammenfasst, nutzte die Gelegenheit und traf Blackpin, PlanB. und die IOTA Foundation in Aalen persönlich für ein HelloIOTA-Special zur Partnerschaft:

Deutsches Video/ Englisches Video

Über BLACKPIN

Blackpin wurde 2016 von 7 Gesellschaftern gegründet und hat in den letzten 4 Jahren einen sicheren DSGVO-konformen Messenger entwickelt, der ab 2020 marktreif ist. Basierend auf dieser Technologie ist der nächste strategische Schritt, eine digitale Transaktionsplattform für agiles Arbeiten in der Zukunft zu schaffen. Diese wird es Unternehmen im B2B-Bereich ermöglichen, mit ihren Mitarbeitern, Kunden oder Partnern zu kommunizieren und Geschäfte abzuwickeln. Blackpin hat seinen Sitz im Innovationszentrum Aalen. Das Team besteht aus 28 Mitarbeitern und über 20 Beta-Tester nutzen den Messenger bereits. Blackpin wurde mit dem Innovationspreis Ostwürttemberg 2020 ausgezeichnet und war Finalist beim Top 10 Cyberone Award. Ministerpräsident für Digitalisierung Thomas Strobel ernannte Blackpin kürzlich zum Leuchtturm-Startup von Baden-Württemberg.

Über PlanB.

PlanB. wurde 2007 gegründet und versteht sich als Co-Innovationspartner für digitales Product Engineering. Mit über 130 Software-Profis entwickelt PlanB. gemeinsam mit seinen Kunden innovative Lösungen in Bereichen wie Industrie 4.0, Künstliche Intelligenz oder Neue Arbeitsmethoden. Dabei hat PlanB. nicht nur die innovative Softwarelösung an sich im Blick, sondern auch die digitale Transformation des Kunden.

Über die IOTA-Stiftung

IOTA ist eine globale, gemeinnützige Stiftung mit Sitz in Deutschland. Die Aufgabe der IOTA Foundation ist es, die Forschung und Entwicklung neuer Distributed-Ledger-Technologien (DLT) zu unterstützen, einschließlich des IOTA Tangle. Die Stiftung fördert die Ausbildung und Annahme von Distributed-Ledger-Technologien durch die Schaffung von Ökosystemen und die Standardisierung dieser neuen Protokolle.

Der IOTA Tangle geht über Blockchain hinaus, indem er die weltweit erste skalierbare, Gebührenfreie und dezentralisierte Distributed-Ledger-Technologie bereitstellt. Der Tangle nutzt seine eigene einzigartige Technologie, um drei grundlegende Probleme der Blockchain-Technologie zu lösen: hohe Gebühren, Skalierung und Zentralisierung. Es ist ein Open-Source-Protokoll, das die menschliche Wirtschaft mit der maschinellen Wirtschaft verbindet, indem es neuartige Machine-to-Machine (M2M)-Interaktionen ermöglicht, einschließlich sicherer Datenübertragung, gebührenfreier Micropayments und sicherer Zugangskontrolle für Geräte.

Besuchen Sie www.iota.org für weitere Informationen.

Original by Holger Köther: https://blog.iota.org/blackpin-chooses-the-iota-tangle-as-the-strategic-underlying-dlt-technology-for-its-b2b-communication-and-transaction-platform/

 

ECLASS und der Digitale Zwilling

ECLASS trägt proaktiv zur Entwicklung von Industrie 4.0 bei und stellt in diesem neuen Whitepaper ein revolutionäres neues Konzept einer Distributed Ledger-basierten Infrastruktur für industrielle digitale Zwillinge vor:

Distributed Ledger-basierte Infrastruktur für industrielle digitale Zwillinge

Um die Digitalisierung der Industrie zu meistern, ist die umfassende Verfügbarkeit von Informationen eine zentrale Voraussetzung. Aus diesem Grund sind Konzepte wie die Anlagenverwaltungsschale (AAS) und digitale Zwillinge (DT) entstanden.

Die Plattform Industrie 4.0 sowie Branchenverbände wie der VDMA (Verband Deutscher Maschinen- und Anlagenbauer) und der ZVEI (Zentralverband Elektrotechnik- und Elektronikindustrie) arbeiten kontinuierlich an der Entwicklung neuer Standards, die sich der Herausforderung stellen, mit minimalem Aufwand die richtigen Informationen zur richtigen Zeit zu erhalten.

ECLASS bildet mit seinem semantischen Katalog- und Klassifikationssystem die Grundlage für eine semantisch korrekte Beschreibung von Informationen. Darüber hinaus ermöglicht ECLASS Maschinen die automatische Identifizierung von Informationen innerhalb einer Vermögensverwaltungsschale.

DLT als dezentrales Register von AAS: Architektur und Interaktionen der beteiligten Parteien.

Die DIN SPEC 91406 [5] beschreibt ein Schema, wie eine weltweit eindeutige ID eines Assets in Form einer URL erzeugt werden kann. Diese global eindeutige ID soll dazu dienen, das physische Asset mit den Informationen über das physische Asset in IT-Systemen zu verknüpfen. Eine Möglichkeit, das AAS mit dem Asset zu verknüpfen, ist die Bereitstellung des AAS unter der entsprechenden URL nach DIN SPEC 91406. Dieses Verfahren ist die naheliegendste Möglichkeit, beide Standards gemeinsam zu nutzen, hat aber einige Nachteile, wenn es um die Referenzierung von Informationen über das Internet geht.

  • Die AssetID ist statisch und kann nicht geändert werden. Wenn sie direkt als AASID verwendet wird, darf die AAS nicht an einen anderen Ort verschoben werden, da die auf dem Asset aufgedruckte AssetID, die bereits im Feld eingesetzt wird, nicht mehr geändert werden kann.
  • Das URL-Schema bindet das Asset an einen Besitzer einer Domain, eine Übertragung auf eine andere Domain ist nicht möglich.
  • Aktuelle Ansätze für das Identitätsmanagement im Kontext von Industrie 4.0 (I4.0) basieren auf zentralisierten Ansätzen. Diese basieren auf einer zentralen Registry und einem Authentifizierungsserver, um die Identifikation und Authentifizierung von Assets und deren DTs sicherzustellen. Aus Sicht der Autoren ist der zentralisierte Ansatz ein erster gültiger Schritt zur kurzfristigen Realisierung von I4.0-Anwendungen, entspricht aber nicht in vollem Umfang den langfristigen Visionen von I4.0, die den hochgradig dezentralen Charakter zukünftiger digitaler Ökosysteme ohne Komponenten, die eine zentrale Monopolstellung einnehmen können und deren Nichtverfügbarkeit den sicheren Betrieb des Gesamtsystems beeinträchtigen kann, betonen.

In diesem Whitepaper wird ein Ansatz zur Realisierung einer dezentralen Registry für Dienste rund um I4.0-Komponenten vorgestellt. Wie diese dezentrale Registry in der Praxis eingesetzt wird, wird anhand von fünf praxisrelevanten Anwendungsfällen erläutert, die den gesamten Lebenszyklus des Assets umfassen. Die Use Cases zeigen, wie die dezentrale Registry implementiert werden kann, wie externe Dienste mit einer I4.0-Komponente verknüpft werden können und wie Anwender auf die Dienste zugreifen können. Weiterhin zeigen die Anwendungsfälle, wie Betreiber neben dem AAS des Herstellers ein zweites AAS assoziieren können, das dann unter der Kontrolle des Betreibers steht. Weitere Use Cases beschreiben die Möglichkeit, Asset-Administrations-Shells durch Dritte zu qualifizieren sowie ein dezentrales Identitäts- und Zugriffsmanagement für die im dezentralen Register aufgeführten Dienste. ECLASS wird hauptsächlich zur Beschreibung der Dienste sowie von Attributen innerhalb von Zertifikaten zur Autorisierung und Qualifizierung eines AAS verwendet.

Das Konzept der I4.0-Komponenten, die als dezentrale Bausteine für das zukünftige I4.0-System gesehen werden, und die dezentrale Registry ergänzen sich und bilden ein organisch integriertes Ganzes. Die vorgeschlagene dezentrale Registry in Kombination mit einem dezentralen Identitätsmanagement von Assets und ihren DTs setzt einen bedeutenden Meilenstein auf dem Weg zu den zukünftigen offenen globalen digitalen Ökosystemen.

Original: https://www.eclass.eu/en/association/digitalization-expert-group/eclass-and-the-digital-twin.html

IOTA Smart Grid Infrastruktur

Ermöglichung von Energiehandelsplattformen

Vor einigen Monaten identifizierte das European Innovation Radar die IOTA Foundation (IF) und die im Rahmen des +CityxChange-Projekts entwickelte Energiehandelsplattform als Key Innovator bzw. High Potential Innovation.

Kürzlich wurde die Auswirkung derselben Innovation vom TM Forum anerkannt, das die IOTA Foundation (IF) und eine Reihe anderer Partner ebenfalls für die geschäftliche Auswirkung ihrer Lösungen auszeichnete. Die Auszeichnung war Teil des TM Forum Catalyst-Innovationswettbewerbs, der im Rahmen der Digital Transformation World-Konferenz ins Leben gerufen wurde, der Flaggschiff-Veranstaltung des Forums, die in diesem Jahr vollständig online stattfand und kürzlich am 12. November zu Ende ging.

Aber was ist die Kerninnovation, die IF diesen Erfolg beschert hat? Wir beschreiben dies im folgenden Artikel.

Fangen wir von vorne an…

Seit 2018 arbeitet die IF im Rahmen des europäischen Projekts +CityXchange mit einer Reihe von Smart-Energy-Partnern zusammen, die in Trondheim, Norwegen und Limerick, Irland, tätig sind.

Nach einer anfänglichen Aufbauphase, in der Use-Case- und Architektur-Diskussionen geführt wurden, startete schließlich im Jahr 2020 die Entwicklungsphase des Projekts. IF arbeitete dabei mit NTNU, ABB, Powel, TronderEnergi und SmartMpower zusammen.

Aufbauend auf den Anforderungen der Stakeholder in den Leuchtturmstädten Limerick und Trondheim testete die IF ein MVP einer dezentralen Energiehandelsplattform. Sie können sich eine Zusammenfassung dieser Arbeit in diesem Video ansehen oder den Rest dieses Blogposts für weitere Details lesen.

Das Wichtigste zuerst: Was bedeutet Energiehandel? Und warum ist er wichtig?

Heutzutage hat der globale Energieverbrauch seine zwei Hauptvektoren in (i) Gebäuden, die ca. 40 % des gesamten Primärenergiebedarfs ausmachen und in (ii) Transportmitteln, die ca. 28 % desselben Energiebedarfs ausmachen.

Trotz des hohen Energieverbrauchs im Zusammenhang mit Gebäuden beginnen die jüngsten Innovationen in der intelligenten Gebäudetechnik diesen Trend umzukehren.

Dank der kontinuierlichen und verstärkten Entwicklung dezentraler erneuerbarer Energiequellen, wie z. B. Photovoltaik auf Dächern und der Verbesserung lokaler Energiespeichertechnologien können einige Gebäude nun zu Positiv-Energiegebäuden werden. Ein Beispiel dafür ist das Powerhouse Brattørkaia in Trondheim, das in der Abbildung unten gezeigt wird. Das Gebäude ist vollständig mit Solarzellen verkleidet.

Das Kraftwerk Brattørkaia ist das größte neue energiepositive Gebäude in Norwegen und wird in seiner Betriebsphase mehr Energie erzeugen, als es durch die Produktion von Baumaterialien, den Bau, den Betrieb und die Entsorgung des Gebäudes verbraucht. Das Gebäude wurde nach ökologischen Gesichtspunkten entworfen. Wenn Umweltaspekte an erster Stelle stehen, entsteht eine neue Art von Architektur. Beim Powerhouse Brattørkaia folgt die Form der Umwelt, während die optimale Nutzung der Sonnenenergie die aufregende und ikonische Architektur des Gebäudes bestimmt hat. Solarenergie, andere Quellen erneuerbarer Energie und ein extrem niedriger Energieverbrauch sorgen dafür, dass dies ein energiepositives Gebäude wird. Das eigentliche Gebäude ist gut isoliert, braucht nur wenig Heizung und hat eine hervorragende Belüftung. Das Gebäude bietet somit ein angenehmes Arbeitsumfeld mit einem ausgezeichneten Büroraum, der von Licht und Luft geprägt ist und einen schönen Blick auf den Trondheimsfjord und die Insel Munkholmen bietet. Mehr zum Powerhouse Brattørkaia

Dank der Fähigkeit, Energie aus erneuerbaren Quellen zu erzeugen, kombiniert mit anderen intelligenten Technologien, ist ein Plus-Energie-Gebäude dann in der Lage, als flexibles Energiesystem zu agieren. Das bedeutet, dass es seine Energieproduktion und seinen Energieverbrauch effizient verwaltet und zwar in dem Maße, dass es mehr Energie produziert, als es für seinen Betrieb benötigt, während es seine Gesamtbelastung des Energienetzes reduziert. Infolgedessen können Microgrids agiler werden.

Kombiniert man diese Innovation mit der Verbesserung von IoT- und Smart-Metering-Technologien, kann die von Positiv-Energie-Gebäuden produzierte und verbrauchte Energie in Echtzeit gemessen und sogar prognostiziert werden, wenn historische Daten mit aktuellen Wetterbedingungen kombiniert und mit KI-Algorithmen verarbeitet werden.

Positiv-Energie-Gebäude erzeugen einen Überschuss an Energie, der gespeichert oder umverteilt werden kann. Und warum sollten sie das tun? Um den Bedarf anderer Gebäude und der gesamten Nachbarschaft zu decken. Energieüberschüsse könnten dann lokal gehandelt und getauscht werden. Nicht nur Gebäude, sondern auch Stadtteile könnten zu autarken „Energieinseln“ werden, wenn nicht sogar einen Energieüberschuss erzeugen.

Um diese Smart-Grid-Innovation zu ermöglichen, wird eine neuartige digitale Infrastruktur benötigt.

Was ist also die Aufgabe einer solchen digitalen Infrastruktur?

Um eine Energiehandelsplattform aufzubauen, benötigen angeschlossene Agenten, die Energie-Assets kontrollieren (z. B. Batteriespeicher, Solarpaneele usw.), eine Infrastruktur für den Datenaustausch, um Angebote für den Verkauf verfügbarer überschüssiger Energie zu machen (Angebotsseite). Gleichzeitig müssen andere Agenten Gesuche zum Kauf der verfügbaren Energie veröffentlichen (Nachfrageseite).

Wenn diese Informationen zur Verfügung stehen, können Handelsplattformen mit Hilfe spezieller Optimierungsalgorithmen Angebot und Nachfrage bestmöglich aufeinander abstimmen und einen Energieausgleich auf dem Marktplatz der angeschlossenen Anlagen, Gebäude und letztlich Stadtteile erreichen. Dies zu ermöglichen, d. h. Energieüberschüsse und Flexibilität monetarisieren zu können, ermöglicht den weiteren Einsatz und die Integration von dezentralen Energieressourcen in städtischen Umgebungen.

Warum gibt es die digitale Infrastruktur mit Datenaustausch nicht schon?

Zunächst einmal, weil es bis jetzt keinen Bedarf dafür gab. Erst in jüngster Zeit wurde es durch die Verbreitung vieler ermöglichender Technologien möglich, Energieüberschüsse zu erzeugen.

Zweitens steht die Idee, Energieüberschüsse dezentral zu handeln, im Gegensatz zu alten Marktdesigns und Geschäftsmodellen, die auf der Prämisse eines eher zentralisierten Energiesystems aufgebaut waren.

Erst jetzt zeichnet sich ein Paradigmenwechsel ab. Netzbetreiber erkennen nun die Möglichkeit, teure Netzverstärkungen zu vermeiden, die mit der Integration dezentraler Energieressourcen verbunden sind, indem sie zu Orchestrierern von lokal ausgeglichenen Energiemärkten werden. Auch die Regulierungsbehörden beginnen, sich auf diese neuen Möglichkeiten einzustellen.

Der Bedarf an einer skalierbaren digitalen Infrastruktur wird nun offensichtlich. Darüber hinaus verstehen wir auch, wie solche Daten von einer Vielzahl unabhängiger Akteure generiert werden und wie wichtig es ist, die Einhaltung von Vorschriften und die Transparenz dieses Datenflusses und seiner Verarbeitung sicherzustellen.

Eine zentralisierte, Cloud-basierte Infrastruktur für den Datenaustausch führt zu Reibungsverlusten, die möglicherweise nicht mit der Vision offener und transparenter Märkte vereinbar sind, die in solchen dezentralen Ökosystemen eingesetzt werden. Ein Black-Box-Ansatz führt zu einem Single-Point-of-Failure und der Gefahr der Manipulation von Daten oder Verarbeitungsprozessen. Um die Skalierung, Optimierung und Einführung weiterer Innovationen zu gewährleisten, wird die zentralisierte Infrastruktur außerdem ständig gefordert sein, um den wachsenden Bedarf an Datenaustausch und Interoperabilitätsanforderungen zu erfüllen.

Aus diesem Grund gewinnen aufkommende Open-Source-Technologien, wie z. B. Distributed Ledger (DLTs), jetzt als potenzielle Bausteine für eine offene und transparente Smart-City- und Energieinfrastruktur an Aufmerksamkeit. Durch die gemeinsame Nutzung der von diesen Energiehandelsplattformen benötigten Daten und ihrer Optimierungsalgorithmen auf einer gemeinsamen dezentralen Infrastruktur wird ihr exklusiver Zugang zu einer vorab ausgewählten Anzahl von Aggregatoren aufgehoben. Dadurch wird der Zugang zu diesen Daten demokratisiert, während Transparenz und Nachvollziehbarkeit gewährleistet sind.

Eine Infrastruktur zur gemeinsamen Nutzung von Daten ist jedoch nur ein Teil der Gleichung. Was wird noch benötigt?

Die Antwort lautet: eine Infrastruktur für den Austausch von Werten. Und kann diese zentralisiert werden? Ja, allerdings könnte auch eine Dezentralisierung Vorteile bringen.

Die Gründe dafür sind die folgenden: Die Teilnahme von Prosumern (d.h. Anlagen, die Energieüberschüsse produzieren und verbrauchen) am Energiehandel sollte friktionsfrei sein und Anreize schaffen, indem ihre Eigentümer direkt belohnt werden. Ein optimaler Ansatz würde nahezu sofortige und gefühlslose Zahlungen für gehandelte Energieüberschüsse nutzen. Um diesen Anforderungen gerecht zu werden, könnten Zahlungen von Erzeugern an Verbraucher Peer-to-Peer und in Echtzeit erfolgen und automatisch von den dezentralen Edge-Energie-Assets selbst verwaltet werden, anstatt zentralisiert, aggregiert und auf monatlicher oder vierteljährlicher Basis abgerechnet zu werden. Der IOTA-Token könnte stattdessen genutzt werden, um die Abwicklung solcher Machine-to-Machine-Trades zu erleichtern.

IOTA Smart Grid Energy

DLT-gestützte Smart-Grid-Infrastruktur – Warum IOTA?

Aufgrund der dezentralen Natur lokaler Energiemärkte wird der Fall für die Entwicklung vertrauenswürdiger Energiehandelsplattformen mit transparenter Datenfreigabe und digitaler Zahlungsinfrastruktur immer deutlicher. Um dies zu erreichen, sollten Distributed-Ledger-Technologien (DLT) zum Einsatz kommen. Eine DLT-basierte digitale Infrastruktur kann die Nachvollziehbarkeit der ausgetauschten Daten und die Herkunft der erneuerbaren Energielieferungen garantieren und einen Echtzeit- und automatisierten Werttransfer auf einer Pay-per-Use-Basis verarbeiten. Die Komplexität wird reduziert, wenn dieselbe DLT die Nachvollziehbarkeit von Daten und Werttransaktionen in Echtzeit ermöglicht.

Allerdings würden nicht alle DLTs diese Anforderungen erfüllen. Die ausgewählten sollten in der Lage sein, sich direkt mit Energieanlagen zu integrieren und auf die hohe Anzahl von Transaktionen zu skalieren, die innerhalb eines Stadtteils oder einer Stadt angedacht sind.

Der IOTA Tangle erfüllt diese Anforderungen. Lassen Sie uns sehen, warum.

IOTA kann Wert- und Datentransaktionen auf der gleichen Infrastruktur verarbeiten. IOTA bietet eine Open-Source-Softwaretechnologie, die direkt in IoT-Geräte (z. B. intelligente Stromzähler) eingebettet werden kann, wodurch der Anwendungsbereich dieser digitalen Infrastrukturinnovation auf den IoT-Rand des Stromnetzes ausgedehnt werden kann. Energieanlagen können sofort Nachfrage und Angebot für Energieüberschüsse teilen, ohne dass eine zentralisierte Datenaggregation erforderlich ist. IOTA Identity garantiert die Authentizität der Quellen und die Integrität der geteilten Daten und hilft, die Reputation von Prosumern aufzubauen. Dank IOTA Streams wird die Vertraulichkeit der Informationen von ihren Eigentümern kontrolliert und der Zugriff kann nur ausgewählten Plattformbetreibern gewährt werden. Dies fördert die Agilität des Marktes und den Wettbewerb. Gleichzeitig kann die Vertraulichkeit, d.h. wer an wen verkauft, gewahrt werden und nur autorisierten Parteien, d.h. Regulierungsbehörden, zugänglich gemacht werden.

Aufgrund der gefühllosen IOTA-Transaktionen gibt es keine unvorhergesehenen Kosten, die die Nutzung einer solchen dezentralen Infrastruktur einschränken könnten. Und das gilt für beides: die Freigabe von benötigten Daten oder die Abwicklung von Zahlungen.

Darüber hinaus wird der IOTA-Access noch dynamischere Energiehandelsszenarien ermöglichen, wie z.B. solche mit eMaaS (electric Mobility as a Service).

Stellen Sie sich dazu ein Elektrofahrzeug (EV) vor, das Energie benötigt, um seine Fahrt zu beenden. Das Fahrzeug wird über den Marktplatz für Energieflexibilität verfügbare Energieladestationen in der Nähe anfragen. Gleichzeitig stellen Sie sich private Ladestationsbesitzer vor, die ihre Verfügbarkeit zum Laden von Autos in der Nähe bis zu einer bestimmten Energiemenge anbieten. Sobald Nachfrage und Angebot durch den Marktplatz abgeglichen sind, kann die Zugangsberechtigung zu der ausgewählten Ladestation direkt an das entsprechende Fahrzeug erteilt werden, so dass nur autorisierte Fahrzeuge nahtlos an der Station laden können.

Wie kann IF diese innovative Infrastruktur ermöglichen?

Um diese Infrastruktur bereitzustellen, haben wir eine Reihe von Hardware- und Software-Komponenten entwickelt. Eine vereinfachte High-Level-Übersicht der implementierten Architektur ist in der folgenden Abbildung dargestellt.

Infrastructure and Marketplace Architecture

Unser Fokus liegt auf der Daten- und Zahlungsinfrastruktur, die auf dem IOTA Tangle aufgebaut ist. Um ihren Wert zu demonstrieren, wurden jedoch einige zusätzliche Komponenten implementiert. Wie bereits erwähnt, ist es das Ziel der IOTA Foundation, die Dezentralisierung dieses Prozesses an den Rand des Stromnetzes zu bringen und die Möglichkeit zu schaffen, Energie-Assets direkt mit der Infrastruktur zu verbinden. Zu diesem Zweck haben wir zunächst ein IOTA-Asset-Modul entwickelt. Es ist ein eingebettetes IoT-Gerät (unter Verwendung eines PyCom-Boards) mit einem integrierten Energiezähler und einem IOTA-Kryptokern, der es jedem Energie-Asset ermöglicht, Daten direkt auf dem IOTA Tangle zu veröffentlichen. Das Modul kann sich mit lokalem WiFi oder mit einem LTE-M-Netzwerk verbinden, wodurch es in einer Reihe von Energieanlagen und Szenarien eingesetzt werden kann. Es ist mit verschiedenen Standards kompatibel und kann die Energie der angeschlossenen Anlage entweder direkt oder über einen in die Anlage integrierten Energiezähler (z. B. ABB SiteEMS) messen, der über einen bereitgestellten HAN-Port angeschlossen ist. Das Gerät registriert seine Identität (öffentlicher Schlüssel) auf dem IOTA Tangle, wodurch es alle generierten Nachrichten verschlüsseln und signieren kann.

Eine Asset Manager UI ist unten abgebildet und ermöglicht den Besitzern, das Modul mit Parametern wie Kosten für verkaufte Energie oder Preis für gekaufte Energie zu konfigurieren. Zahlungen werden direkt vom Gerät aus durchgeführt, das eine IOTA-Wallet hostet, die über dieselbe UI finanziert werden kann. Die gewünschte Menge an Token kann über dieselbe UI von einer zentralen Wallet in die Geräte-Wallet verschoben werden. Alarme für den Fall, dass das lokale Wallet-Guthaben unter einen Schwellenwert fällt, können ebenso eingerichtet werden wie periodische Abhebungen, wenn das Wallet-Guthaben ein vordefiniertes Limit überschreitet. Alle Transaktionen, an denen das Gerät beteiligt ist, werden auf dem IOTA Tangle protokolliert und über die UI-Auditing-Funktionen sichtbar.

Nach der anfänglichen Konfiguration erzeugt das Modul automatisch Energieüberschussangebote und -nachfragen für die angeschlossene Anlage, basierend auf den vordefinierten Parametern und sendet sie über einen Stream-Kanal an die Tangle-Infrastruktur.

Eine Reihe von Standard-APIs (Platform to Tangle APIs) ermöglicht es unserem Backend (das zu Demonstrationszwecken entwickelt wurde) oder jedem anderen Handelsplattform-Backend, diese Nachfragen und Angebote zu extrahieren (wenn der Zugriff auf den relevanten Stream vom Eigentümer gewährt wird), die Integrität ihrer Quelle zu überprüfen und sie automatisch abzugleichen, um eine bestimmte Leistung zu maximieren.

In diesem Stadium wurde eine sehr einfache Matching-Strategie im angeschlossenen Angebotsanager implementiert (d. h. der angebotene Energieüberschuss ist größer als die nachgefragte Energie und der Preis ist niedriger als der angebotene Preis). Jede komplexere Strategie kann jedoch von den angeschlossenen Plattformen über die bereitgestellten APIs übernommen werden. Sobald ein Match erstellt wurde, wird ein vereinbartes Gebot vom „Verrechnungs“-Modul auf der Tangle-Infrastruktur (unter Verwendung der gleichen Standard-APIs) zu Revisionszwecken gespeichert und eine Benachrichtigung an die beteiligten Erzeuger- und Verbraucheranlagen gesendet.

Der Energieaustausch kann dann von einem „Verrechnugs“-Modul überwacht werden, das die von den produzierenden und verbrauchenden Assets in einem eigens für diesen Zweck geöffneten Stream-Kanal geposteten Energiemessungen beobachtet. Die auf Asset-Ebene gesendete und empfangene Energie wird von dem angeschlossenen IOTA-Asset-Modul gemessen. Sobald ein Energieaustausch bestätigt wird, wird das Modul „Zahlung und Rechnungsprüfung“ ausgelöst und eine Zahlungsanforderung von einem Verbraucher an den Erzeuger wird im selben Stream protokolliert. Das IOTA-Modul überwacht, dass die angeforderte IOTA-Zahlung verarbeitet wird, bevor es einen Streitbeilegungsprozess auslöst.

Mit der aktuellen Implementierung kann der folgende Workflow demonstriert werden, wobei die auf der Tangle-Infrastruktur freigegebenen Informationen verwendet werden.

Energy Marketplace workflow

Was kommt als nächstes?

Die Mission der IOTA Foundation ist es, neue Lösungen zu ermöglichen, die von der Nutzung des IOTA-Ledgers und anderer Technologien profitieren können. Mit diesem Artikel haben wir diskutiert, wie es möglich ist, die Smart-Grid-Infrastruktur zu verbessern, um lokale Energieplattformen und Marktplätze zu ermöglichen.

Durch den weiteren Ausbau einer solchen digitalen Infrastruktur mit Standard-IoT-APIs (z. B. FIWARE) für die nahtlose Integration von Assets und Standardprotokollen für den Datenaustausch (z. B. OASIS eMIX) kann die Fähigkeit der Prosumer unterstützt werden, sich mit verschiedenen Marktplätzen zu verbinden. Gleichzeitig werden Plattformbetreiber auch in der Lage sein, verschiedene Distribution Energy Operators (DSO) und Optimierungsalgorithmen zu verbinden.

Um eine solche Interoperabilität zu ermöglichen, werden zusätzliche Bausteine erforderlich sein, zu denen gehören:

  • Interkonnektivitäts-Gateways, die auf offenen Standard-APIs basieren, um den Zugang für jede Anlage und jeden DSO sowie Optimierungsalgorithmus zu ermöglichen. Dafür werden wir verschiedene Standards untersuchen, einschließlich der OASIS WG-Spezifikation.
  • IoT-Bibliotheken und Hardware-Integration für die Verbindung von Energie-Assets mit standardmäßigen digitalen Zwillingen und Integration mit einer vollständigen dezentralen Identität für Dinge, um die Integrität der Daten und die Authentizität der Quellen zu garantieren und den Aufbau von Reputation und Energiegutschriften für ihre Besitzer zu ermöglichen.

Um mehr darüber zu erfahren, wie Sie diesen Ausbau der Infrastruktur unterstützen und die erforderlichen Bausteine entwickeln können, wenden Sie sich bitte an das Team der IOTA Foundation unter integrations@iota.org. Forschungs- und akademische Organisationen sind in dieser Phase sehr willkommen.

Aufruf zum Handeln: Interessenbekundung

Diese Infrastruktur und der Marktplatz werden derzeit eingerichtet und genutzt, um energieerzeugende Anlagen, d.h. Photovoltaik-Paneele und verbrauchende Anlagen, einschließlich Batterien und EV-Ladegeräte, die im Null-Energie-Gebäude, einem lebenden Labor für nachhaltige Energieforschung auf dem NTNU-Campus in Trondheim, eingesetzt werden, zu verbinden.

Um die Nutzung und Annahme dieser digitalen Infrastruktur außerhalb des +CityxChange-Projekts und der Partner zu fördern und die Entwicklung der neuen Smart City und städtischer Peer-to-Peer-Energiehandelslösungen zu ermöglichen, arbeitet die IOTA Foundation auch mit Alpha Venturi zusammen. Alpha Venturi ist ein norwegisches Innovations- und Venture-Studio, das sich auf aufstrebende Technologien spezialisiert hat. Alpha Venturi inkubiert ein Spinoff-Unternehmen und damit verbundene Forschungs- und Innovationsinitiativen, die das +CityXchange-Projekt und die in diesem Blogpost vorgestellten Komponenten nutzen.

Um die Entwicklung und Kommerzialisierung von marktreifen Lösungen zu beschleunigen, die diese Infrastruktur nutzen, begrüßt Alpha Venturi Interessenbekundungen von:

  • Potenziellen Nutzern und Nutznießern aus den Bereichen Energie, Immobilien, Stadt, Genossenschaften und anderen Sektoren
  • Testbeds und Living Labs, die an zukünftigen Pilotinitiativen interessiert sind
  • Entwicklungs- und Lieferpartnern aus der Industrie, Forschung, Wissenschaft oder Verbänden

Bitte setzen Sie sich mit Alpha Venturi in Verbindung, indem Sie Wilfried Pimenta de Miranda über wilfried@alpha-venturi.com kontaktieren.

Original by Michele Nati: https://blog.iota.org/iota-powered-smart-grid-infrastructure/

Chrysalis (IOTA 1.5) Öffentliches Testnetz ist live

IOTA 1.5

IOTA 1.5 (auch bekannt als Chrysalis) ist die Zwischenstufe von IOTA, bevor Coordicide fertiggestellt wird. Sie können hier mehr über die Strategie zur Freigabe von Chrysalis lesen.

Die Komponenten der Chrysalis-Phase 1 wurden im August ins Mainnet eingespielt. Heute markiert das Ingenieursteam einen bedeutenden Meilenstein mit der Freigabe des Chrysalis Phase 2 Testnetzes.

IOTA 1.5 Testnetz

Heute öffnen wir das Chrysalis-Testnetz für die Öffentlichkeit. Dieser Zeitraum ist der Schlüssel für ein erfolgreiches Protokoll-Upgrade zu Beginn des neuen Jahres. Wir heißen jeden willkommen, die Funktionalität zu testen und Feedback zu geben.

Die Veröffentlichung von Chrysalis Phase 2 im IOTA Mainnet wird das größte Upgrade sein, das das IOTA Netzwerk jemals erfahren hat. Eine komplette Überarbeitung des Protokolls, die die Voraussetzungen für die Einführung schafft und uns einen Schritt näher zu IOTA 2.0 bringt.

Bedenken Sie, dass die Änderungen noch im Gange sind und es Bugs geben wird, Audits durchgeführt werden und brechende Änderungen eingeführt werden. Das ist alles Teil des Prozesses.

Wenn Sie eine bestehende Integration auf dem IOTA-Protokoll haben, können Sie mit dem Testnet und den Bibliotheken die ersten Arbeiten beginnen, um Ihre Integration auf die endgültige Implementierung von IOTA 1.5 umzustellen. Dies sind die Komponenten, die wir mit dem testnet veröffentlichen:

  • Eine neue wallet.rs-Bibliothek mit JS-Bindungen über Neon
  • Eine neue CLI-Wallet, die auf wallet.rs aufbaut, die es Ihnen erlaubt, grundlegende Wertoperationen durchzuführen und Integrationen zu bauen, die mit Token arbeiten
  • Ein neuer Faucet zum Anfordern von Testnet-Tokens zur Verwendung in Ihrer Wallet
  • Eine experimentelle JS-Bibliothek mit implementierten Chrysalis-APIs, einschließlich MQTT und lokalem Proof of Work
  • Hornet v0.6.0-alpha Node Version. Betreiber können ihre eigene Node einrichten und sie mit dem Testnetz verbinden
  • Beachten Sie, dass sich alle Komponenten in einem frühen Alpha-Stadium befinden, mit einem ausstehenden Audit. Es wird Bugs geben und Dinge werden kaputt gehen

API-Endpunkte

Nodes, die für das Testnet bereitgestellt werden, können über einen Load Balancer abgefragt werden unter

api.lb-0.testnet.chrysalis2.com

Wir empfehlen die Verwendung des Load Balancers für die meisten Szenarien.

Einzelne Knotenendpunkte, zum Beispiel für die Verwendung von MQTT, sind:

  • api.hornet-0.testnet.chrysalis2.com
  • api.hornet-1.testnet.chrysalis2.com
  • api.hornet-2.testnet.chrysalis2.com
  • api.hornet-3.testnet.chrysalis2.com

Die Node-API ist gemäß der folgenden Spezifikation integriert.

Explorer

Das Netzwerk verfügt über einen Explorer, der auf der regulären Explorer-Website bereitgestellt wird.

Einrichten einer eigenen Node

Wenn Sie eine eigene Node einrichten möchten, müssen Sie den chrysalis-pt2-Zweig im offiziellen Hornet-Repository verwenden. Sie müssen sich manuell mit Ihren Nachbarn peeren. Besuchen Sie dazu den Discord-Kanal #chrysalis-testnet und fragen Sie nach Nachbarn.

Sobald Sie Ihre Node eingerichtet haben, empfehlen wir Ihnen, sich das Dashboard anzusehen 🙂 Wir werden später mehr über das Dashboard berichten.

Wallet-Bibliothek

Wallet.rs ist eine allgemeine, in Rust geschriebene Wallet-Bibliothek. Sie wird von der CLI-Wallet, die wir heute veröffentlicht haben und von unserer kommenden Wallet-Software Firefly verwendet. Wallet.rs enthält die gesamte Logik, um Wallets oder Integrationen, die Wallet-Funktionalität benötigen (z.B. Börsen), sicher zu bauen. Sie beinhaltet die Verwaltung und Sicherung des Kontostatus, die Erstellung von Konten, die Übertragung von Token und mehr.

Die Wallet-Bibliothek kommt mit Neon-Bindings für Node JS hier.

Weitere Informationen über die Bibliothek finden Sie im wallet.rs Repository.

Kommandozeilen-Wallet

Die neue CLI-Wallet bietet eine Schnittstelle für die wallet.rs-Bibliothek, die Sie direkt von Ihrer Kommandozeile aus verwenden können. Sie eignet sich hervorragend zum Testen und für die Arbeit mit Konten und Werttransfers auf eine leichtere Art und Weise als mit einer UI-Wallet.

Schauen Sie sich die CLI-Wallet im cli-wallet-Repository an. Die aktuelle Vorabversion finden Sie hier.

Faucet

Ein neues Chrysalis Faucet wurde mit dem Testnet bereitgestellt. Dieses wird später auch für das Devnet verfügbar sein. Das Faucet erlaubt es Ihnen, Test-Token anzufordern, um sie in Ihren Integrationen zu verwenden, um sie in der CLI-Wallet zu versenden und später für Tests mit Firefly.

Sie können das Faucet hier finden. Der Faucet ist ratenbegrenzt und Sie können alle 60 Sekunden eine Anfrage stellen.

Das Design des Faucets ist auf Firefly und unsere aktuelle Designsprache abgestimmt.

Sie benötigen zunächst eine Testnet-Adresse, die Sie mit der CLI-Wallet oder wallet.rs erzeugen können.

iota.js

iota.js ist eine neue experimentelle, in TypeScript geschriebene Bibliothek, mit der Sie die neuen Chrysalis-APIs testen können: Wert- und Datentransaktionen senden, Peers und Adressen verwalten und mehr. Die Implementierung unterstützt MQTT und erlaubt es Ihnen, lokale Proof of work (PoW) durchzuführen.

Sie finden die neue iota.js-Bibliothek hier.

Wir freuen uns darauf, dass Sie alle die Nodes, die neuen Bibliotheken und die CLI-Wallet im Chrysalis Phase 2 Testnetz testen!

Bekannte Probleme

  • In der CLI-Wallet müssen Sie den aktuellen Account löschen und einen neuen anlegen, wenn Sie sich mit einem anderen Node verbinden wollen. Ein Fix ist in Arbeit.
  • Es gibt ein Problem mit der Bestätigung von Nachrichten mit einer sehr großen Anzahl von Ausgängen (max ~18).

Probleme gefunden? Bitte fragen Sie in #chrysalis-testnet auf Discord nach. Alternativ können Sie auch selbst ein Issue auf dem jeweiligen Projekt GitHub öffnen.

Was kommt als nächstes?

Als nächstes werden wir weitere Bibliotheken im Testnet veröffentlichen (einschließlich unserer Kernbibliothek iota.rs), Unterstützung für Stronghold in der Bibliothek wallet.rs und der CLI-Wallet hinzufügen, mehr Dokumentation veröffentlichen und später wird auch Firefly dem Testnet beitreten. Bleiben Sie dran!

Wie immer heißen wir jeden willkommen, auf Discord vorbeizuschauen.

Folgen Sie uns auf unseren offiziellen Kanälen und erhalten Sie die neuesten Nachrichten!

Original: https://blog.iota.org/chrysalis-phase-2-testnet-out-now/