„Gemeinschaftliches Indexieren ist eine Form der freien Verschlagwortung (Indexierung), bei der Nutzer von Inhalten die Deskriptoren (Schlagwörter) mit Hilfe verschiedener Arten von Sozialer Software ohne Regeln zuordnen. Die bei diesem Prozess erstellten Sammlungen von Schlagwörtern werden zu Deutsch Folksonomien genannt.“
… meint die Wikipedia dazu, wenn man sie zum Thema Folksonomie befragt. Niemals könnte eine solche Beschreibung bei einer Bibliothek stehen. Völlig undenkbar und unmöglicht!
In der Philosophie heißt es jedoch: Man soll nicht aus dem sein auf das Sollen schließen. In der Tat wäre eine solche Beschreibung bei einer deutschen Bibliothek fehl am Platze. Das bedeutet aber nicht dass es nicht einmal theoretisch möglich wäre.
Warum diese Überlegung? Nun: die sog. formale Erfassung eines Buches nach den Regeln des RAK ist unglaublich teuer (vgl. Hilberer, Thomas: „Aufwand vs. Nutzen: Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren“ als PDF). Manchmal genauso teuer, wie das Buch selbst… (laut Hilberer in der Universitätsbibliothek der Uni Mannheim schon 2003 20€ pro Buch)
„The main activities the interviews brought to light can be partitioned into five categories: locating and selecting among relevant sources, retrieving information from them, interpreting what was retrieved, managing the filtered-out information locally, and sharing results with others.“
Kein Wunder, dass es in Zeiten der Einsparung der Personalkosten eine anständige inhaltliche Erschließung zu kurz kommt.Will man in der „digitalen Bibliothek“ der Universität suchen, sollte man schon besser wissen, was man sucht (zumindest ein passendes Stichwort, den Autor oder Titel). Dies ist aber Welten davon entfernt, was Andreas Paepke in seinem Artikel (online) in D-Lib Magazine „Digital libraries: Searching is not enough“ wegweisend beschrieben hat – und was meiner Ansicht nach eine Bibliothek der Zukunft leisten soll (vgl. Zitat)
Stellen wir uns einmal vor, es gibt ein sehr einfaches Format für die Erfassung von Metadaten, Schlüsselwörtern und Abstracts – pro Feld eine einzige Information – und ein passendes – ebenso simpel aufgebautes Autausch-Protokoll. Diese Möglichkeiten nutzt eine Gemeinschaft (z.B. der Universitätsmitglieder). Das Ganze funktioniert auf dem Wikipedia-Prinzip: Jeder darf beitragen, was er kann und will. Ein Supervisor (Bibliothekar) korrigiert offensichtliche Fehler und sorgt für die Richtigkeit der formalen Angaben. Aus dieser Menge an Informationen extrachiert ein Programm wichtige Wörter und je nach Menge dieser die Stärke der Beziehung des Buches zu diesem Wort. Es ist eine einfache statistische Methode a’la google. Daneben gibt es eine vollständige maschinelle Indexierung der Beiträge und eine übliche bibliographische Zuordnung wie DDC (Dewey Decimal Classification). Auf diese Weise ergänzen sich der Bibliothekar und der Benutzer und erzeugen einen Mehrwert, der beiden gleichzeitig nutzt.
Eine Folksonomie kann die Bibliothek bereichern. Sie ermöglicht neue (zunächst statistische) semantische Methoden für die Suche, Auswahl, Austausch, Eingrenzung auf ein bestimmtes Sachgebiet etc. Sie ist gegenwärtig noch nicht möglich. Dazu fehlen Formate und Schnittstellen – ebenso wie die Bereitschaft, Geld und guter Wille der Entscheidungsträger. Ich bin überzeugt, dass dies die Zukunft einer Bibliothek sein wird. Wikipedia und Social Bookmarking Dienste zeigen, wie es geht!
nein – offensichtlich muss Du Dich intensiver mit der Materie beschäftigen – geh zurück auf Anfang und lern ein bisschen mehr – das ist nicht so simpel!
Nun, die Umsetzung wird wohl noch vielen Probleme bereiten, da die in meisten Bibliotheken eingesetzte Software (vor allem Datenbanken) nicht darauf ausgelegt sind. Zum Teil würden sie die jungen Informatik-Absolventen als „prähistorisch“ bezeichnen. Indexierungssoftware gibt es genug – meist als „Erweiterung“ der üblichen SQL-Datenbanken. Statistische Algorythmen für eine Gewichtung oder eine Begriffswolke lernt jeder Informatiker auf der Uni. Wo liegt also das Problem? [Nicht aufregen, gleich kommt die Erklärung ;-)]
Ich selber bin Informationswissenschaftler, kein Bibliothekar… und habe genügend Erfahrung als Entwickler im Bereich Web 2.0. So kann ich die bibliographische Metadaten ganz anders anschauen – als Informationen, die eine gewisse Struktur haben. Ich kann sie in Datenbanken speichern und zumindest simple Zusammenhänge ausgeben lassen. Für sinnvolere Sachen, wie Teil-Ganzes-Relation oder Übersetzung-Original gibt es gegenwärtig kein geeignetes Austauschformat, so dass diese Informationen meist nur dort verbleiben, wo sie eingegeben worden sind (wenn überhaupt erhoben). Deshalb sehe ich primär die Datenformate als die größte Bremse an. Im Rahmen meiner wissenschaftlichen Arbeit beschäftige ich mich gerade mit diesem „Schwachpunkt des Systems“.
Mag sein, dass mir die Realitätswahrnehmung eines Bibliothekars fehlt: die finanziellen- und andere Sachzwänge. Was ich einmal erleben durfte, ähnelte einer „Rettet die Saurier“-Aktion, als man sich geweigert hat, auf eine Übliche SQL-Datenbank umzusteigen. Hier hätte man genug „günstige“ Programmierer und eine unverbaute Zukunft gehabt… Aber wie gesagt: Diese Denkweise und eine Begründung blieben mir fremd bzw. nicht nachvollziehbar.