Einleitung
"Alles, was Sie über geistiges Eigentum wissen, ist falsch" lautet sinngemäß eine Überschrift im WIRED1 Artikel von Nicholas Negroponte, Leiter des Media Lab beim MIT. Dieser extreme Standpunkt, der letztlich das Ende des Copyright-Schutzes in digitalen Netzwerken bedeutet, stößt auf Ablehnung bei Verlegern und Copyright-Fachleuten. Die Internet-Entwicklungen der letzten Jahre haben nicht nur die großartigen Möglichkeiten des Zugangs zu weltweit verteilter Information hervorgebracht, sondern auch die Furcht vor der illegalen oder unkontrollierten Distribution von Dokumenten, sobald sie über Netzwerke verfügbar sind.Der Schutz geistigen Eigentums ist ein fundamentaler Bestandteil unseres Weltwirtschaftssystems und sollte nicht leichtfertig aufs Spiel gesetzt werden, weil die Technologie sich schneller entwickelt als die entsprechenden gesetzlichen Grundlagen.
Die Auswirkungen der digitalen Technologien auf die Copyright-Gesetze werden derzeit von vielen Organisationen untersucht. Die "World Intellectual Property Organization" WIPO hat ein Symposium 2 über dieses Thema unterstützt und die White House Information Infrastructure Task Force (IITF) hat durch die "Working Group on Intellectual Property Rights" einen Bericht erstellen lassen, der dem Kongreß Vorschläge für die Anpassung des geltenden Rechts an die neuen Medien vorlegt. Der Bericht vertritt die Überzeugung, daß das Recht auf den Schutz geistigen Eigentums auch in Netzwerkumgebungen Gültigkeit hat.
Abgesehen von Frankreich und Spanien, gibt es in den europäischen Ländern keine klaren gesetzlichen Regelungen für die elektronische Distribution von urheberrechtlich geschützten Werken. Die herrschende Rechtsunsicherheit wird dadurch verdeutlicht, daß die EG-Kommission (DG XIII) sich Gedanken über "Possible Options for Introducing a European Electronic Copyright" macht.
Der IITF-Bericht weist darauf hin, daß gesetzliche Grundlagen allein die Copyright-Probleme nicht lösen können. Um einen wirksamen Schutz des geistigen Eigentums zu gewährleisten, sind zusätzliche Anstrengungen auf der technologischen und erzieherischen Ebene erforderlich.
Erzeuger und Anbieter von Information (Autoren und Verlage) müssen darauf vertrauen, daß die eingesetzte Technik für die Verteilung ihrer Werke sicher ist und die Unverfälschbarkeit der Dokumente gewährleistet.
Dieser Beitrag befaßt sich hauptsächlich mit den technischen Möglichkeiten zur Sicherung der Integrität von Dokumenten in Netzwerken und gibt einen Überblick über die gegenwärtigen Techniken für Verschlüsselung und digitale Unterschriften.
Bevor auf die Methoden des Schutzes eingegangen wird, sollte das zu schützende Objeckt näher definiert werden.
Was ist ein Dokument in digitaler Form?
Eine der Voraussetzungen für den Urheberschutz ist die Abfassung des Werkes in einer gegenständliche Form. In digitaler Form besteht ein Werk aus einer einfachen Bit-Sequenz. Nach dem IITF-Bericht ist dies eine der gültigen Darstellungsformen. Im Hinblick auf die nahezu unbegrenzten Darstellungsmöglichkeiten für Form, Medium oder Methode wählte der House Report 4 eine Formulierung, die Raum für zukünftige Entwicklungen gibt: "a work may be fixed in words, numbers, notes, sounds, pictures, or many other graphic or symbolic indicia, and may be embodied in a physical object in written, printed, photographic, sculptural, punched, magnetic, or any other stable form and may be capable of perception either directly or by means of any machine or device now known or later developed."
Im selben Bericht wird erwähnt, daß eine Übermittlung (z.B. einer Email) keine Fixierung darstellt. Sie kann zwar ein abgefaßtes Werk als Ergebnis haben, ein Werk ensteht jedoch nicht durch den alleinigen Vorhang der Übermittlung.Pamela Samuelson 5 diskutiert die Probleme, die mit der "Verformbarkeit" von Werken im digitalen Medium zusammenhägen. Es werden Beispiele von Werken mit einer undefinierten Fixierung oder einer fragwürdigen Urheberschaft angeführt. Wer ist zum Beispiel der Autor eines Werkes, das mit Hilfe eines fremden Computer-Programms erzeugt wurde? Graphische Visualisierungsprogramme, wie sie häufig in der Molekülchemie verwendet werden, erlauben die Generierung eines Strukturbildes aus einer numerischen Tabelle und verwandeln damit ein "geschriebenes Werk" in ein "bildliches Werk".
In Wissenschaft und Technik ist das geistige Werk in der Regel ein Artikel, bestehend aus Text, Tabellen, Formeln und Bildern. Das Vorhandensein von Audio- oder Videokomponenten stellt eher die Ausnahme dar. Der Inhalt kann unterschiedlich kodiert sein (reiner ASCII-Text, SGML, TEX, usw.) . Um Dokumente schützen und abrechnen zu können, sollten sie zunächt eindeutig identifizierbar sein. Die Dokumentidentifizierung sollte ebenso weitläufig verfügbar sein wie die ISBN, ISSN oder die ISRN für Bücher, Zeitschriften und Reports. Gegenwärtig wird die Einführung einer "Universal Article Identification" (UAI) diskutiert.
Neben dem eindeutigen Dokumentschlüssel sollten auch weitere Informationen, die zu einem Dokument gehören, standardisiert werden. Worlock 6 diskutiert eine von Jensen vorgeschlagene Liste, die aus folgenden Komponenten besteht:
Diese Liste beschreibt "ein" Dokument und ignoriert die Tatsache, daß eine wissenschaftliche Veröffentlichung in einem Zeitraum von einigen Woche bis zu zwei Jahren entsteht, wobei mehrere Versionen, die alle denselben Inhalt beschreiben, entstehen. Die erste Manuskriptversion wird vom Autor möglicherweise an einen Preprint-Server geschickt, es folgen überarbeitete Versionen während des Gutachterprozesses, und selbst die endgültige vom Autor verschickte Version kann sich im Layout noch von der Verlagsversion unterscheiden. Das Problem der Versionskontrolle, das bei Software-Produkten und technischen Beschreibungen schon lange eingeführt ist, wird bei elektronischen Publikationen noch nicht eingesetzt.
- ISBN, ISSN oder anderer Schlüssel
- Information über Copyright-Inhaber
- Elektronische Adresse des Verlags
- "Authentication site" (muß nicht mit der Adresse des Verlags übereinstimmen)
- Druckerlaubnis; Kopiererlaubnis
- Lizenzbedingungen
- Hashed/nicht-hashed, verschlüsselt/nicht verschlüsselt
- Zeit-Stempel
- Zeitraum der Copyright-Gültigkeit
- Suchbar/nicht suchbar (relevant für intelligente Netzwerkagenten)
- Kodierungsformat (Raw text, SGML, TEX, PostScript, PDF etc.)
- Attached-file Information (Videos, Algorithmen etc.)
Welchen Gefahren sind Daten im Internet ausgesetzt?
Internet wurde als offenes System konzipiert und basiert im wesentlichen auf dem UNIX- Bertriebssystem. Es setzt das TCP/IP-Protokoll ein und hat damit die Schwächen, die diesem Protokoll inherent sind. Leider wurde die Ausbreitung des Internet auch durch das hervorbringen einer wachsende Zahl von Hackern begleitet, deren wichtigstes Ziel der Zugang und oft die Zerstörung von geschützten Daten ist. Daneben drohen weitere Gefahren durch Viren oder technisches Versagen.Welche rechtlichen und technischen Möglichkeiten gibt es, um Dokumente vor unerwünschtem Zugriff, Veränderung und unerlaubter Weiterverbreitung zu schützen?
Langfristige Aufbewahrung von elektronischen Dokumenten
In seinem Artikel "Ensuring the longetivity of digital documents" beschreibt Rothenberg 7 ein fiktives Scenario, bei dem seine Enkel im Jahre 2045 beim Durchstöbern des Speichers eine CD-ROM und einen Brief aus dem Jahre 1995 entdecken. Wie erwartet sind sie nicht in der Lage, die CD-ROM, die den Schlüssel zu seinem hinterlegten Schatz enthält, zu lesen. Diese Geschichte soll einige Probleme, die mit der Entschlüsselung digitaler Daten nach langen Zeiträumen entstehen, aufzeigen.Ein Faktor bei der langfristigen Aufbewahrung ist die physikalische Lebensdauer des verwendeten Speichermediums, die von einigen Jahren bei Magnetbändern bis zu etlichen Jahrzehnten bei optischen Platten reicht. Eine weitere Begrenzung ergibt sich durch die Tatsache, daß Speichermedien nach einer gewissen Zeit veralten. Der Standard-PC von heute kann keine 5,25 Zoll Disketten mehr lesen, die erst vor einem Jahrzehnt auf dem Markt erschienen sind.
Trotz allem stellt weder die Anfälligkeit noch die Lebensdauer von digitalen Medien das Hauptproblem der Archivierung dar. Die Bit-Sequenz, die man vom Medium liest, muß interpretiert werden. Der Inhalt von Dateien läßt sich oft nur durch das Programm entschlüsseln, mit dem er erzeugt wurde. Es ist praktisch unmöglich, eine Multimedia-Datei ohne geeignete Software zu lesen.
Wer Daten langfristig aufbewahren will, muß daher über die gesamte Kette von Geräten und Programmen verfügen, d.h.:
Optische Medien wie CD-ROM oder WORM können nicht wiederbeschrieben werden und sind daher von Natur aus vor Verfälschung sicher. Die Lebensdauer von CDs, wie sie in der Massenproduktion Verwendung finden, und von goldbeschichteten wiederbeschreibbaren CDs wird bei optimalen Lagerungsbedingungen auf über 100 Jahre geschätzt. Dagegen ist die Lebensdauer von magnetischen Medien wie DAT (Digital Audio Tape) oder DLT (Digital Linear Tape) wesentlich kürzer, und die Bänder müssen regelmäßig im Abstand von einigen Jahren neu kopiert werden.
- Speichermedium
- Lesegerät
- Gerätetreiber
- Computer
- Betriebssystem
- Lese-Software
Bei der Auswahl von Hardware und Systemplattformen sollte man sich auf bewährte weit verbreitete Standardtechniken stützen. Die gespeicherten Daten sollten für die meisten Rechner- und Betriebssysteme lesbar sein.
Mit der Frage nach dem geeigneten Datenformat für die langfristige Archivierung befassen sich Verlage, Bibliotheken und andere Institutionen, die mit der Aufbewahrung von Daten betraut sind.
Aus heutiger Sicht erscheinen SGML (Standard General Markup Language), PostScript und das Adobe Acrobat Format als geeignete Formate für die Archivierung. Falls Verknüpfungen zwischen Teilen des Dokumentes erhalten bleiben sollen, kommt HTML in Frage.
SGML beschreibt sehr genau die Struktur eines Dokuments und ist daher ein geeignetes Basis-Format, von dem aus man diverse Produkte ableiten kann. Leider gibt es kaum billige Programme, um Daten aus anderen Formaten in SGML zu konvertieren. SGML wird vermehrt als Produktionsformat bei Verlagen eingesetzt.
PostScript kann von fast allen Textverarbeitungssystemen erzeugt werden und wird vor allem als Druckformat verwendet. PostScript ist eine auf dem einfachen ASCII-Zeichensatz basierende Beschreibungssprache. Die Schwäche von PostScript ist die Größe der erzeugten Dateien.
Das von Adobe eingeführte Acrobat-Format, manchmal auch PDF (Portable Document Format) genannt, kann von PostScript generiert werden. Obwohl der erforderliche Speicherbedarf wesentlich geringer als beim PostScript-Format ist, bleibt das Layout des Dokuments originalgetreu erhalten. Ein weiterer Vorteil von Acrobat ist, daß Reader kostenlos für alle gängigen Computer-Plattformen erhältlich sind.
Keines der genannten Formate (mit Ausnahme von Acrobat in einem eingeschränkten Maß) kann für Hypertexte, die im World Wide Web eingesetzt sind, verwendet werden. Es ist sowieso fraglich, wie man Dokumente aufbewahren soll, deren Inhalte teilweise durch Verknüpfungen zu anderen Dokumenten gegeben sind, wobei ein Großteil dieser Links in zehn Jahren wahrscheinlich beteutungslos sind.
Ein Projekt für die langfristige Aufbewahrung von Dokumenten, das an der Norwegischen National Library 8 durchgeführt wird, kommt zu folgenden Schlüssen:
Wiederbeschreibbare CD-ROMs werden als Speichermedium verwendet. Texte, die im Original unformatiert sind, werden unformatiert im ISO-Latin-Zeichensatz gespeichert. Formatierte Texte werden in das Acrobat-Format umgewandelt und gemeinsam mit den Acrobat-Reader-Versionen für verschiedene Systemplattformen aufbewahrt.
Man muß ständig prüfen, ob die verfügbaren Rechner und Betriebssysteme in der Lage sind, die erforderlichen Speichermedien zu lesen. Ebenso muß beobachtet werden, ob die verwendeten Formate lesbar sind. Wann immer ein Gerät oder ein Format veraltet oder nicht mehr produziert wird, müssen die gespeicherten Daten umkopiert und dem neuen Standard angepaßt werden.
Die "Commission on Preservation and Access" und die "Research Libraries Group" haben eine Task Force gegründet, die einen Bericht 9 über die Aufbewahrung digitaler Information verfaßt hat. Nach diesem Bericht müssen Archivierungsstellen beweisen, daß sie die in einem unabhängig erstellten Programm für Archivierungszertifizierung Standards und Anforderungen erfüllen. Zertifizierte Archive müssen außerdem Failsafe-Mechanismen vorweisen.
Sicherungs- und Schutztechniken
Um die Vertraulichkeit und Integrität von Dokumenten zu gewährleisten, muß sowohl ihr Zugang als auch ihre Übertragung kontrolliert werden.
Mechanismen zur Zugangskontrolle
Die erste Grundvoraussetzung ist ein sicherer Hostbetrieb. Die Sicherheit kann gegen äußere Einflüsse durch den Einsatz eines "Firewall" verbessert werden. Das eigene lokale Rechnernetz (LAN) wird innerhalb des Firewalls gelegt und der Server, der externen Benutzern zugäglich gemacht wird, liegt außerhalb des Firewalls.LAN <------> FIREWALL <------> SERVER <------> OUTSIDE
Das ist die sogenannte "Opferlamm-Konfiguration". Es besteht die Möglichkeit, daß im Server eingebrochen wird, aber dies gefährdet nicht das innere Netzwerk.
Für die Zugangskontrolle gibt es allgemein folgende Methoden:
- Kontrolle von IP-Adresse, Teilnetz oder Domain Nur Browser, die von einer definierten IP-Adresse (Internet), einem Teilnetz oder Domain kommen, werden zugelassen. Dies bietet keinen optimalen Schutz, weil es Methoden gibt, um eine IP-Adresse vorzutäuschen. Es ist sicherer, diese Methode mit der Kontrolle der Nutzeridentität zu kombinieren.
- Kontrolle von Loginid und Paßwort Diese Art der Kontrolle kann ebneso wie die IP-Kontrolle auf der Dokument- oder Verzeichnisebene angewendet werden. Problematisch ist, daß Paßwörter wiederholt bei jedem Zugang übers Netz geschickt werden und somit relativ leicht durch Hacker abgefangen werden können.
- Verschlüsselungsmethoden Verschlüsselung ist die wirkungsvollste Methode, um die Vertraulichkeit und Integrität von Dokumenten, die über Netzwerke geschickt werden, zu garantieren. Eine zusätzliche Sicherheit erreicht man durch sogenannte "Authentication"-Methoden (hashing, digitale Unterschrift), die die Identität des Absenders überprüfen und sicherstellen, daß das erhaltene Dokument identisch mit dem abgeschickten Dokument ist.
Zur Verschlüsselung von Dokumenten werden unterschiedliche Schlüsselarten verwendet. Symmetrische Verschlüsselungsverfahren benutzen einen einzigen "privaten" Schlüssel. "Public- Key-Verfahren" basieren auf einer asymmetrischen Verschlüsselung, wobei ein mathematischer Algorithmus zwei zusammengehörende Schlüssel erzeugt. Der Public Key wird zum Verschlüsseln verwendet und kann Dritten bekannt gemacht werden, währen der "Private Key" zum Entschlüsseln geheim bleibt.
- Private-Key-Verfahren Das DES (Data Encryption Standard) wurde von IBM entwickelt und 1977 von der amerikanischen Regierung als Standard eingeführt. Es benutzt einen relativ kurzen Schlüssel (56 Bit) und wird deshalb als nicht besonders sicher angesehen. Das DES-System wurde ursprünglich für finanzielle Transaktionen zwischen Banken entwickelt. Als allgemeiner Nachteil der Private- Key-Verfahren wird angesehen, daß zunächt eine vertrauenswürdige Beziehung zwischen Sender und Empfänger aufgebaut werden muß, um den privaten Schlüssel auszutauschen.
Public Key Verfahren Die ersten Public-Key-Syteme wurden Mitte der siebziger Jahre beschrieben. Ihr Vorteil ist, daß kein geheimer Schlüssel ausgetauscht wird und daß jeder, der den Public Key eines anderen besitzt, diesem eine verschlüsselte Nachricht schicken kann. Eines der bekannteren Systeme ist PGP (Pretty Good Privacy), das von Zimmermann 10 entwickelt wurde. Ein weiteres System, das sich zum Standard entwickeln könnte, ist das RSA-System 11. Mit diesem Verfahren könnten zum Beispiel Verlage vertraglich gebundene Universitätbibliotheken mit privaten Schlüsseln versorgen. Es sollte nicht unerwähnt bleiben, daß nationale Sicherheitsbehörden zum Teil erhebliche Bedenken gegen Verschlüsselung (außer durch sie selbst) haben. In Frankreich ist die Verschlüsselung mit privaten Schlüsseln nicht erlaubt. Die USA verfolgen den Ansatz, Verschlüsselung zu gestatten, sofern die Regierung oder ihre Behörden den Schlüssel kennen.
Die beschriebenen Verschlüsselungverfahren müssen auf ganze Dokumente angewendet werden und sind für manche Zwecke zu aufwendig. Um Dokumente vor Veränderung zu schützen, kann man auch Hash-Funktionen anwenden, bei denen das Dokument unverschlüsselt bleibt und nur ein kurzer String (mindestens 160 Bytes) dem Dokument zugefügt wird. In diese Zeichenkette, die eindeutig für das Dokument ist, kann man zusätzlich eine digitale Unterschrift einbringen. Sie ist genau wie eine handschriftliche Unterschrift einmalig mit dem unterzeichneten Dokument verbunden. Wird das Dokument in irgendeiner Weise verändert, so kann die Signatur nicht mehr gelesen werden.
Das NIST (National Institute of Standards and Technology) hat das DSS (Digital Signature Standard) entwickelt und zum Standard erklärt. Es basiert auf den Digital Siganture Algorithm (DSA). Bei IBM in Almaden haben Dwork und Naor14 ein Verfahren entwickelt, von dem sie behaupten, daß es jedem Angriff standhält.
- "Authentication-Verfahren" Unter "Authentication" versteht man den Prozeß der Identifizierung eines Nutzers. Bei klassischen Systemen wird die Nutzeridentität beim Einloggen durch Überprüfung des eingegeben Namens und Paßworts überprüft. Wie schon an anderer Stelle erwähnt, ist dies kein sehr sicheres System. Neuere Systeme verwenden auch für diesen Zweck Verschlüsselungsverfahren.
Kerberos, im Rahmen des Athena-Projekts beim MIT entwickelt, gestattet die Identifizierung eines Nutzers (Client) durch den Überprüfer (Server), ohne empfindliche Daten über das Natz zu schicken, die es einem Hacker ermöglichen würden, sich für den Nutzer auszugeben. Einzelheiten des Kerberos-Protokolls sind bei Neuman und Tsïo 12, den Entwicklern dieses Systems, nachzulesen.
Die beschriebenen Verschlüsselungsverfahren schützen ein Dokument auf dem Weg vom Absender zum Empfänger. Nachdem das Dokument entschlüsselt ist, kann es unkontrolliert gedruckt, kopiert und weiterverteilt werden.
Methoden gegen die unerlaubte Verbreitung von Dokumenten
Um die Weiterverbreitung eines Dokuments zu erschweren, kann man es in einer unerkennbaren Weise durch ein Kodewort markieren, das dem registrierten Empfänger des Dokuments eindeutig zugeordnet ist. Wird eine verdächtige Kopie dieses Dokuments gefunden, so kann es dekodiert und der rechtsmäßige Besitzer des Dokuments festgestellt werden.Folgende Kodierungsmethoden werden von Brassil 13 vorgeschlagen:
Der Copyright-Inhaber muß natürlich eine Kopie des unkodierten Dokuments behalten und nur das kodierte Dokument verschicken. Durch den Vergleich von Original und Kopie kann das Kodewort ermittelt werden. Experimente haben gezeigt, daß man das Kodewort selbst nach mehrfachem Photokopieren einer Vorlage noch feststellen kann. Es ist nicht unmöglich, die Kodierung zu erkennen und zu entfernen, aber der erforderliche Aufwand ist in der Regel höher als die Beschaffungskosten einer legalen Kopie.
- Line-shift- Kodierung Dem vorgegebenen Kodewort entsprechend werden bestimmte Zeilen im Text nach oben oder nach unten leicht verschoben. Mit Hilfe eines Verschiebungsdekoders wird der Abstand zwischen aufeinander folgenden Zeile ermittelt.
- Word-shift-Kodierung Hier wird der Abstand zwischen benachbarten Wörtern entweder verringert oder vergrößert, wobei die Gesamtlänge der Zeile unverändert bleibt. Eine Möglichkeit, die Kodierung zu entschlüsseln, besteht darin, die aktuellen Wortabstände mit denen des benutzten Textformatierers zu vergleichen.
- Feature-Kodierung Diese Methode wird auf formatierte Dateien oder Bitmap-Darstellungen von Dokumenten angewendet. Einige Eigenarten (Features) des Bildes, zum Beispiel eines Buchstabens, werden entprechend dem Kodewort geringfügig verändert. Zum Beispiel kann der senkrechte Strich am Ende eines Buchstabens etwas verlängert werden.
Schlußfolgerungen
Es findet weiterhin eine kontroverse Diskussion über das Schützen von Dokumenten statt. Gegner des Copyright-Schutzes führen an, daß Überwachungsmethoden die Raubkopien von Software auch nicht eindämmen konnten.Immerhin können Informationsanbieter wie Verlage heute geschützte Dokumente über Netzwerke an registierte Nutzer schicken, die alleine in der Lage sind, diese Dokumente zu lesen. Versuche, Modelle des Urheberschutzes auf nationaler und europäischer Ebene zu etablieren, sind durchgeführt worden. CITED (Copyright in Transmitted Electronic Documents) ist ein System, das im Rahmen des EU-Programms ESPRIT ins Leben gerufen wurde. Dennoch ist ein weit stärkeres Maß an Standardisierung sowohl auf der rechtlichen als auf der technischen Seite erforderlich.
Hier wurden nur die Aspekte des Schutzes von elektronischen Dokumenten erörtert. Es wird jedoch noch lange Zeit das gedruckte Medium geben, und die Systeme zum Schutz geistigen Eigentums für gedruckte und digitale Medien sollten kompatibel oder besser miteinander verbunden werden.
Der Erfolg von Verschlüsselungstechniken wird auch von der Bereitwilligkeit unserer Gesellschaft abhängen, diese Gesetze zu akzeptieren. Es müssen noch bessere Argumente gefunden werden, um die Internet-Gemeinschaft davon zu überzeugen, daß Urheberschutz nicht nur im Interesse der Verlage liegt.
Referenzen
1) Negroponte N., The Bit Police: Will the FCC Regulate Licenses to Radiate Bits?, 1.2 WIRED 112 (1993)2) World Intellectual Property Organization, Proceedings of the WIPO Symposium on the Impact of Digital Technology on Copyright and Neighboring Rights (1993)
3) Intellectual Property and the National Information Infrastructure, The Report of the Working Group on Intellectual Property Rights, http://www.uspto.gov/web/ipnii
4) House Report Rep. No. 1476, 94th. Cong. (1976), reprinted in U.S.C.C.A.N 5659 (1976)
5) Samuelson P., Copyright, digital data, and fair use in digital networked environments, http. Samuelson, P. Copyright's Fair Use Doctrine and Digital Data. Communications of the ACM, v.37, n.1 (January, 1994):21-27. Samuelson, P.. The NII Intellectual Property Report. Communications of the ACM, v.37, n.12 (December 1994):21-27.
6) Worlock D. R., The culture of control: safeguarding intellectual property in the age of networks, Online Information 94 Proceedings, p. 357-365
7) Rothenberg J. , Ensuring the longevity of digital documents, Scientific American, January 1995
8) Solbakk, S. A. , Long term preservation of electronic Material: preleminary experiences from the Norwegian National Library, http://rosa.nbr.no/etids/preserv.html
9) Preserving Digital Information, Draft Report of the Task Force on Archiving of Digital Information, Version 1.0, August 24, 1995
10) Zimmermann, P. , PGP Userïs guide, Vol. I: Essential Topics; Vol. II: Special Topics. (1994)
11) Rivest, R.L. , Shamir, A, , Adleman, L., A method for obtaining digital signatures and public-key cryptosystems. Commun. of the ACM 21(2), Feb. 1978
12) Neumann B. C., Tsïo T., Kerberos: An Authentication Service for Computer Networks; IEEE Communications Magazine, 32 (9), 1994
13) Brassil J., Low S., Maxemchuk N., OïGorman L., Electronic Marking and Identification Techniques to discourage Document Copying; Proceedings of the IEEE INFOCOMï94, Part 3, Toronto (1994), p. 1278-1287
14) Dwork, C. , Digital Signatures Secure in the strongest Sense known; http://www-i.almaden.ibm.com/cs/showtell/signature/Initpage.html