Lerntagebuch

Willkommen zu meinem Lerntagebuch

Hier erhältst du Einblick in das Modul Bibliotheks- und Archivinformatik der FHGR. Ich schreibe über neue Erkenntnisse und Erfahrungen, die ich während des Kurses sammle. Viel Spass beim Lesen!

Posts

  • Abschluss «Was habe ich (nicht) gelernt?»

    Nun ist auch dieses Modul am Ende angekommen und ich kann sagen, dass ich die Mischung aus Theorie und Praxis sehr gelungen fand. Ausserdem fand ich die Anleitungen und das gemeinsage Lösen einzelner Aufgaben sehr hilfreich und konnte so fast alle Übungen ohne grössere Probleme durchführen. Einzig das Zeitmanagement könnte noch etwas optimiert werden, indem alle Installationen als Hausaufgabe gegeben werden und Problemfälle dabei ausserhalb des Unterrichts gelöst werden. Die Auswahl der einzelnen Software aus diesen zahlreich vorhandenen, fand ich gut gelungen. Es gab einen guten Einblick in jede einzelne (Archiv-, Bibliothek- und Repository-Software) und die Möglichkeit praktische Erfahrungen zu sammeln.
    Bei der Bibliothekssoftware war wie bereits vermutet nicht viel neues dabei, da ich doch schon einige Jahre auf diesem Gebiet arbeite und mich immer sehr intensiv mit dem System (Aleph) auseinandergesetzt habe. Dennoch merke ich, dass ich etwas geduldiger mit den Tücken des Programms geworden bin und auch etwas mehr Verständnis habe, wenn ein gemeldetes Problem nicht so schnell wie gewünscht, behoben werden kann. Da ich mir nun vorstellen kann, wie aufwendig die Änderungen sein können. Der Gastbeitrag von Charlotte Frauchiger und Selina Hodel fand ich ebenfalls sehr informativ, gelungen und sehr passend in Bezug auf die «aktuelle» Einführung von SLSP am 07.12.2020.
    Beim Archivsystem hatte ich ebenfalls festgestellt, dass ich bereits einiges wusste durch die Lehre und das Praktikum und nicht viel neues dazu kam. Ist aber nicht allzu tragisch, da mich diese Software komischerweise am wenigsten interessiert. Was ich hingegen von den bisherigen Lerneinheiten zu den Bibliotheks-Und Archivsoftware dazu gelernt habe, ist die Anwendung des Ubuntu Terminal. Was gut ist, da ich seit Ende des Jahres 2021 das ReservationsTool für unsere Themenkisten betreue und bei der Installation gleich meine neu erlernten Shell-Skills einsetzten konnte.
    Die für mich persönlich spannendsten Themen waren Repository-Software, Metadaten und Schnittstellen, sowie die Discovery-Systeme. Das Highlight für mich war auf jeden Fall OpenRefine. Ich hoffe, dass ich diese Software bald auch mit reellen Daten nutzen kann. Denn für den Metadatenaustausch von Vorteil ist die einheitliche Nutzung der Felder. Nur ist dies im institutionellen Repository der FHNW (IRF) lange vernachlässigt worden. Deshalb stehen noch so einige Metadatenbereinigung an und ich hoffe, dass ich bald ausprobieren darf, ob sich das mit OpenRefine bewältigen lässt. Ausserdem ist mir nun auch bewusst geworden, wie sich Metadaten austauschen lassen. Und zwar in dem die einzelnen Dateien aus unterschiedlichen Quellen über eine OAI-PMH-Schnittstelle geharvest werden und wenn nötig alle in dasselbe Format konvertiert werden. Und so könnend die Dateien dann wieder in eine Software eingebunden und übergreifend genutzt werden.

  • Linked Data

    In der letzten Lerneinheit erhielten wir noch ein Paar Infos zum letzten Thema «Discovery-Systeme» diese habe ich im Lerntagebuch noch ergänzt. Danach erhielten wir einen Einblick in die Praxisprojekte der Dozierenden. Für das Deutsche Literaturarchiv Marbach, welches aus einem Archiv, einer Bibliothek und einem Museum besteht, wurde eine Online-Katalog mit einer übergreifenden Suche über alle Datenbestände entwickelt. Das zweite Projekt, die Datenintegration ins Portal noah.nrw fand ich persönlich sehr spannend. Denn das Ziel ist es, dass über das Portal auf alle Open-Access-Ressourcen der Hochschulen aus dem Bundesland Nordrhein-Westfalen zugegriffen werden kann. Dazu wurde die OAI-Schnittstelle genutzt und die Daten in ein einheitliches Format konvertiert. Diese Dateien wurden dann von einem anderen Dienstleister wieder geerntet und für das Portal aufbereitet.
    Die Präsentation der beiden Projekte war sehr spannend und aufschlussreich. Sie zeigte wie das Wissen, das wir uns in diesem Modul bezüglich Datentransformation (OAI-Schnittstellen, OpenRefine) angeeignet haben, gewinnbringend in die Praxis umgesetzt werden kann. Zum Schluss erhielten wir noch einen Einblick in die Weiterentwicklung der Metadatenstandards. Und zwar liegt der Fokus dabei auf der Verknüpfung der Daten = Linked Data.

  • Suchmaschinen und Discovery-Systeme

    Heute ging es um Suchmaschinen und Discovery-Systeme. Dazu hatten wir als Vorbereitung auf die heutige Lerneinheit VuFind installiert und eine Übung zur Konfiguration der Suche und Facetten gemacht. Diese kann im vorgängigen Eintrag nachgelesen werden.

  • Übung 3: Konfiguration Suche und Facetten

    Mit dieser Übung sollte das Discovery-System VuFind individualisiert werden. Genauer die Suche und die Facetten von VuFind. Mit Hilfe eines Videos konnte ich diese Aufgabe lösen.

  • Metadaten modellieren und Schnittstellen nutzen (Teil 2)

    Auch diese Vorlesung habe ich nachgeschaut, da ich die Inhalte nicht in umgekehrter Reihenfolge durchgehen wollte. Nach dem wir MarcEdit7 kennen gelernt hatten, folgte nun die zweite Software zur Transformation von Metadaten.

  • Metadaten modellieren und Schnittstellen nutzen (Teil 1)

    Leider konnte ich an diesem Termin nicht mit dabei sein, weil es ein Nachholtermin war. Zum Glück wurde die Vorlesung aufgezeichnet, so konnte ich diese nachschauen. Gestartet hatte es mit einer Rückmelderunde zur DSpace Aufgabe. Was mich daran erinnerte meinen Blogbeitrag noch zu schreiben. Im Nachhinein hatte ich Glück, dass ich die Aufgabe erst am Sonntag gemacht habe, denn am Samstag ist anscheinend der Demo-Server ausgefallen. Nach dem die restlichen Fragen aus den Lerntagebüchern beantwortet waren, starteten wir mit dem Thema «Metadaten und Schnittstellen». Dazu folgte eine Erklärung zum heutigen Vorgehen anhand des Schaubildes. Ich denke, ich komme mit dem heutigen Unterricht der Beantwortung meiner anfänglichen Frage einen Schritt näher.

  • Übung 2: OAI-PMH Schnittstelle

    Da ich im Unterricht keine Sub-Community, Collection und eine Beispielpublikation angelegt hatte, sondern nur die Aufgabe mitverfolgt hatte, konnte ich das Ganze am Sonntag dann für mich in Ruhe nochmals machen. Für die Übung, welche wir bis zur nächsten Lerneinheit machen müssen, musste ich nochmals einen Tag warten, damit die Metadaten meiner Publikation über die OAI-PMH-Schnittstelle abrufbar waren. Am nächsten Tag konnte ich dann die Metadaten kopieren und lokal auf meiner VM im Texteditor speichern. Somit war diese Übung schnell erledigt.

  • Repository-Software für Publikationen und Forschungsdaten

    Zu Beginn der Lerneinheit besprachen wir kurz noch die Hausaufgabe Import und Export mit ArchivesSpace und erhielten noch eine Marktübersicht zu den Archivsystemen. Nebst ArchivesSpace gibt es auch noch Acsess to Memory (AtoM) als Open-Source-Software. Im Bereich der kommerziellen Angebote werden in der Schweiz vor allem die Produkte scopeArchiv und CMI AIS (ehemals CIMSTAR) verwendet. Mit CIMSTAR habe ich sogar schon gearbeitet, als ich während meiner Lehre zwei Monate beim Archiv für Zeitgeschichte (AfZ) der ETH im Praktikum war. Ich durfte einen Nachlass mit sehr vielen Fotos erfassen. Die Bilder wurden aber nicht digitalisiert. Auch sonst bietet das AfZ keine elektronischen Abzüge über den Archivkatalog an. Wie ich nun im Kurs erfahren habe, hat das damit zu tun, dass die meisten Archivsysteme nicht sonderlich gute und moderne Designs bieten zur Darstellung und Nutzung von Digitalisaten. Um digitalisiertes Archivgut online anzubieten werden zusätzliche Software in Kombination eingesetzt. Bei der E-Pics Plattform der ETH zum Beispiel mit WordPress und Canto Cumulus. Das war für mich eine neue und sehr interessante Erkenntnis, da doch immer mehr digitalisiert wird.

  • Übung 1: Import und Export ArchivesSpace

    In der Übung geht es darum, dass EAD-Beispieldaten in ArchivesSpace importiert und anschliessend mit MARCXML exportiert werden.

  • Funktionen und Aufbau von Archivsystemen

    Gastreferat von Charlotte Frauchiger und Selina Hodel

    Die heutige Unterrichtseinheit startete mit einem Gastreferat meiner beiden Arbeitskolleginnen: Charlotte Frauchiger, Leiterin Team eRessourcen und Selina Hodel, Systembibliothekarin der Fachhochschule Nordwestschweiz. In einem sehr spannenden Vortag erzählten sie uns die Hintergründe der Swiss Library Service Plattform (SLSP), welche seit Dezember 2020 im Einsatz ist und der cloudbasierten Bibliothekssoftware Alma. Bei einer Live-Demo hat Selina uns den Aufbau von Alma und einige Arbeitsabläufe gezeigt. Sie hat dabei den Fokus auf den Hauptunterschied zu den bisherigen Software, das Electronic Resource Management (ERM) und auf ihren Arbeitsbereichen, die E-Ressourcen und Konfiguration gelegt. Auch für mich war das Ganze neu, da ich hauptsächlich in der Benutzung arbeite und mich dort vor allem mit der Ausleihe und Rückgabe sowie zwischendurch mit den Katalogisaten beschäftige. Daher fand ich den Einblick sehr spannend. Als Abschluss des Gastreferats wurde eine strategische Übung durchgeführt. Die Aufgabe war, dass wir in Gruppen strategische Fragen diskutieren und Argumente für die Einführung bzw. den Umstieg auf SLSP gegenüber einer fiktiven Geschäftsleitung ausarbeiten sollten.

  • Funktion und Aufbau von Bibliothekssystemen (Teil 2)

    Die im letzten Unterricht erstellte Bibliothek wurde heute befüllt. Die Installation hat bei mir auf Anhieb geklappt und ich konnte ohne Probleme wieder auf meine Bibliothek zugreifen. Leider war dies nicht bei allen so, weshalb die Dozierenden bei einzelnen Studierenden noch Support leisten mussten. Dadurch entstand für die anderen eine längere Pause, die vermieden hätte, werden können, wenn die Installationsprobleme vorgängig mit den Studierenden angeschaut worden wäre. Nachdem die Probleme behoben waren, ging es ans Praktische. Dazu richteten wir mit Hilfe der Tutorials von Zefanjas die Grundeinstellungen bei Koha ein.

  • Funktion und Aufbau von Bibliothekssystemen (Teil 1)

    Die heutige Lerneinheit begann damit, das theoretische Wissen über Git und GitHub vom letzten Unterrichtsblock in einer praktischen Übung anzuwenden. Dazu mussten wir zuerst Git bei uns lokal installieren. Das Anlegen eines Access Token diente zu unserer Authentifizierung, um später unsere Lerntagebücher im gemeinsamen Skript, welches über GitHub Repository gehostet wird, zu verlinken.

  • Technische Grundlagen

    Heute war unsere erste Unterrichtseinheit. Wie immer wird in der ersten Lektion zuerst das Administrative geklärt. In unserem Fall wie der Kurs aufgebaut ist, wer unsere Dozierenden sind und dass die weiteren Lektionen aufgrund der Covid-19 Pandemie online stattfinden. Neu, im Vergleich zu den anderen Modulen, ist, dass die Infos und die Lerninhalte nicht über Moodle hochgeladen und abgelegt werden, sondern alle Inhalte in einem Skript dokumentiert sind. Das Skript läuft über Github Pages und wir dürfen es verwenden, um in den Lerntagebüchern auf gelernte Inhalte zu referenzieren. Zum Austausch und Präsentation der Inhalte in der Vorlesung wird HedgeDoc verwendet, eine Installation von GWDG. Dieses Dokument können nebst den Dozenten auch wir Studierenden bearbeiten. Zudem können Rückmeldungen oder Fragen anonym im Dokument eingetragen werden. Ich finde die Nutzung von HedgeDoc während des Unterrichts eine sehr gute Lösung. So hat man den direkten Austausch in einem zentralen Dokument und es braucht nicht zwei bis drei weitere Anwendungen zwischen denen immer hin und her gewechselt werden muss. Ausserdem kann ich mir gut vorstellen dieses Tool auch für andere Gruppenarbeiten zur gemeinsamen und zeitgleichen Bearbeitung eines Dokuments zu nutzen. Nun aber zu den technischen Einstellungen, welche für das Modul notwendig sind. Erst sollten wir uns bei der Virtuellen Maschine (VM) einloggen. Wir hatten bereits in früheren Modulen mit VMs kontakt, jedoch war die Installation immer sehr mühselig und zeitaufwendig. Dieses Mal aber, war es ganz einfach. Denn auf diese VM von der Fachhochschule Graubünden (FHGR) kann per VPN-Verbindung auf eine Webbasiert Version zugegriffen werden. Die VM stellt eine virtuelle Arbeitsumgebung mit dem Betriebssystem Ubuntu Linux zur Verfügung. Dies erlaubt das Arbeiten mit Webserver ohne dabei Änderungen am eigenen Gerät zu machen. Zudem können wir so die Bibliotheks- und Archivsoftware, welche wir in diesem Modul behandeln, praktisch ausprobieren. Die Lerninhalte des Moduls haben die Dozierenden in folgendem Schaubild zusammengestellt. Darauf zu erkennen sind die drei Software: Archiv, Bibliothek und Repository und ihre unterschiedlichen Metadatenformate. Die restlichen Begriffe sagen mir (noch) nichts. Es scheint aber so, dass alle Metadaten am Schluss in Solr oder VuFind zusammengeführt werden. Ich frage mich ja, wie die Metadatenstandards untereinander ausgetauscht und übergreifend genutzt werden können.

  • Was bringe ich mit?

    Hey ich bin Marion
    Ich studiedere Informations Science an der FHGR und soeben hat das 7. Semester gestartet.
    Im Modul Bibliotheks- und Archivinformatik sollen wir ein Lerntagebuch führen, um die gelernten Inhalte zu reflektieren. In diesem ersten Beitrag berichte ich erst einmal, was meine Vorkenntnisse und Erwartungen zu diesem Thema sind.
    Nach der Bezirksschule entschied ich mich für die Berufslehre als Fachfrau Information und Dokumentation. Drei Jahre genoss ich eine abwechslungsreiche Ausbildung in der Hauptbibliothek Naturwissenschaften der Universität Zürich. Nebst der Arbeit in der Bibliothek konnte ich 2 Praktika absolvieren. Eines in der Dokumentationsstelle Pro Senectute Zürich und eines im Open Access Team der UZH. Dadurch erhielt ich Einblick in die verwendeten Softwares. In der Bibliothek habe ich mit der Bibliothekssoftware Aleph in den Modulen Ausleihe, Katalogisierung und Erwerbung gearbeitet. In der Dokumentationsstelle wurde ALMA verwendet und ich hatte vor allem mit der Katalogisierung, also dem Erfassen von Metadaten und der Ausleihe zu tun. Beim Open Access Team durfte ich bei der Freigabe von Einträgen in ZORA mitarbeiten und habe so Einblick in die EPrints Software erhalten. Nach dem Abschluss der Lehre habe ich an die FHNW Bibliothek am Campus Brugg-Windisch gewechselt und arbeite dort nun überwiegend in der Benutzung. Bis im Dezember 2020 wurde ebenfalls mit der Bibliothekssoftware Aleph gearbeitet. Danach wurde die FHNW Bibliothek Teil des Bibliotheksverbunds Swiss Library Service Platform (SLSP) und seither wird mit Alma, eine cloudgestützte Bibliothekssoftware gearbeitet. Im vergangenen Sommer erarbeitet ich zudem ein Projekt mit dem institutionellen Repositorium der FHNW (IRF). Dabei ging es zum einen um die Harmonisierung des Erfassungsprozess für studentische Abschlussarbeiten und zum anderen um die Bereinigung der Metadaten. Leider hatte die Zeit nicht mehr gereicht, um auch die technischen Aspekte der DSpace Software genauer kennen zu lernen, um allenfalls Lösungen zur automatischen Bereinigung von Metadaten auszuarbeiten.

subscribe via RSS