Tag 3

Pull Request

Auf GitHub können alle Personen an allen Projekten mitarbeiten und Änderungen vornehmen, sofern diese von den Hosts des Projekts angenommen werden. Ich kann den Hosts meinen Änderungsvorschlag in Form eines Pull Requests unterbringen. Wir haben gelernt, wie ein Pull Request auf GitHub funktioniert. Eigentlich läuft es relativ simpel. Ich habe das Repository von Felix Lohmeier geöffnet und dieses mit einem Klick auf “Fork” kopiert. Mit git clone konnte ich es auf meinen Rechner ziehen. Die Änderungen habe ich lokal durchgeführt und vor dem Push musste ich die folgenden 2 Zeilen einfügen:
git config user.email “meine E-Mail”
git config user.name “mein Vorname und Name”
Nach dem Push musste ich nur noch meinen Fork in Felix Lohmeiers Repo auswählen und dort einen Pull Request erstellen. Nun kann er diesen annehmen oder ablehnen.

Übungen mit Koha

Das Bibliothekssystem Koha scheint schon auf den ersten Blick sehr übersichtlich zu sein. Im Unterpunkt Katalogisierung können Medien erfasst werden – wir machen nun eine Schnellaufnahme. Felder 000 und 008 sind Standardfelder und werden automatisch befüllt. Einzig die Nr. 245a (Der Titel des Werks) muss von mir ausgefüllt werden. Nachdem das Katalogisat gespeichert wurde, können beliebig viele Exemplare erfasst werden. Diese werden dann durch den Barcode unterschieden. Ich finde super, dass beim Barcode-Feld keine Konditionen festgelegt sind. Ausserdem können viele Felder wie zum Beispiel “Anzahl Ausleihen” und “Erwerbungsdatum” manuell geändert werden. Mit meiner fünfmonatigen Bibliothekserfahrung weiss ich nicht, ob das der Standard ist, finde es aber gut so.

Auch bei Benutzer*innen gibt es eine Möglichkeit zur Schnellerfassung. Nach der Schnellerfassung können wieder sehr viele Daten zur Nutzer*in bearbeitet werden. Nachdem dies (in äusserst kurzer Zeit) gemacht werden konnte, ist es nun bereits möglich, die ersten Bücher auszuleihen. Dies funktioniert ebenfalls schnell, da nur jeweils die ID/der Barcode eingegeben werden muss. Aus meiner Sicht ist die Fehleranfälligkeit hoch, da die Ausleihe so schnell gemacht werden kann. In der Praxis müssen sich die Bibliotheksmitarbeiter*innen dem stets bewusst sein. Auch die Rückgabe funkioniert sehr schnell, nur durch die Eingabe des Barcodes beim Menüpunkt “Rückgabe”. Was ich bei der Erstellung einer Nutzerin nicht verstanden habe, ist die zwingende Beziehungsangabe (“Vater”/”Mutter”) bei Kindern und Jugendlichen. Dies müsste sich fast auf die zuständige Betreuungsperson beziehen. Bei der Schnellerfassung werden aber keine weiteren Angaben zu Betreuungspersonen gefordert…

Jedenfalls fällt mein erstes Fazit positiv aus. Auch wegen der Datenimport-Funktion, die mir sehr gefällt. Unter dem Menüpunkt “Administration” –> “Z39.50/SRU-Server” können über das Netzwerkprotokoll Z39.50 Katalogisate von anderen Bibliotheken importiert werden. SRU bedeutet “Search/Retrieve vie URL”. Wir tippen “sru.gbv.de” ein, das heisst wir nutzen die Daten vom GBV über SRU. GBV ist der “Gemeinsame Bibliotheksverbund” aus Deutschland. Die Datenbank, die wir auswählen ist die des “Gemeinsamen Verbundkatalogs” (GVK). Hauptsächlich enthält der GVK die Katalogisate der GBV- und SWB-Bibliotheken (alles deutschsprachig). Alle diese Katalogisate sind in der Verbunddatenbank K10plus abgespeichert, welche ungefähr 200 Millionen Bestandsnachweise enthält. An der HAW Hamburg habe ich auch mit K10plus katalogisieren gelernt. Die Mehrzahl der deutschen staatlichen Universitäten sind in K10plus involviert.

Nach der Installation des Z39.50-Servers können nun die gewünschten Katalogisate importiert werden. Ich finde es super, dass sich die Bibliotheken mit dieser Methode gegenseitig unterstützen können und das auch umgesetzt wird.

OAI-PMH

Zum Abschluss haben wir noch OAI-PMH (Open Archive Initiative – Protovol for Metadata Harvesting) für Koha aktiviert. OAI ist eine Initiative, um elektronische Publikationen im Internet besser auffindbar zu machen – wichtig ist den Initiant*innen die freie Weitergabe der Metadaten – also hauptsächlich die Bereitstelung der eigenen Daten. PMH – also das Protocol for Metadata Harvesting – dient dann dem tatsächlichen Einsammeln und Weiterverarbeiten von Metadaten. Es basiert auf XML und REST. Als kleinster gemeinsame Nenner ist das Dublin-Core-Datenmodell vorgeschrieben – das Ausfüllen der DC-Felder ist also die Grundanforderung. Das Erfassen in zusätzlichen Formaten wie MARC ist nicht zwingend, wird aber von vielen gemacht. Dies ist sehr vorteilhaft, da all diese Medien dann in beiden Formaten für alle Nutzer*innen frei zugänglich sind. Nachdem wir die OAI-PMH aktiviert haben, sind die von uns erstellten Datensätze auch für andere Nutzer*innen abrufbar.