Refine
Year of publication
- 2003 (17) (remove)
Document Type
- Book (10)
- Other (4)
- Article (2)
- Researchpaper (1)
Language
- German (17)
Has Fulltext
- yes (17)
Is part of the Bibliography
- no (17)
Keywords
- Bibliothek (2)
- Urheberrecht (2)
- Arbeit (1)
- Arbeitsmarkt (1)
- Baden-Württemberg (1)
- Bibliotheksumzug (1)
- Bildschirm (1)
- Biologie (1)
- Buchforschung (1)
- Bund der Steuerzahler (1)
Institute
- Bibliothek (17) (remove)
Was die PISA-Studie für die allgemein bildenden Schulen aufzeigte, erhellte die STeFi-Studie für die Hochschulen: Schülern und Studenten fehlt weitgehend die Fä- higkeit, sich in der Informationsflut zielgerichtet zurechtzufinden. Die große Mehrheit der jungen Leute surft gern im Internet, aber wenn es darum geht, gezielt Antworten auf Fragen zu finden, sind die meisten hilflos. Es scheint, dass Schüler an deutschen Schulen lernen sollen, aber nicht das Lernen lernen können. Seit den 90er-Jahren unternehmen Bibliotheken verstärkt Anstrengungen, um Informationskompetenz zu vermitteln. Das ist mehr als die Fähigkeit, den Internet-PC bedienen und sich gegen Viren schützen zu können. Es geht um Recherche-Strategien, und zunächst erstmal darum, den eigenen Informationsbedarf abschätzen zu können. Ferner gehört zur Informationskompetenz die Fähigkeit, gefundene Informationen bewerten und sortieren zu können, damit sie schließlich in das eigene Wissen eingebaut werden können. Wie man Schüler und Studierende dahin bringt - dazu haben Bibliothekare, allen voran in USA, erfolgreiche didaktische Konzepte entwickelt und erprobt. Gute Erfahrungen haben Bibliothekare auch mit Strategien für Lernarrangements gemacht: Medien, die das Wissen vertiefen und den Horizont erweitern können, werden in der Bibliothek so präsentiert, dass Kunden, die nach nichts Bestimmtem suchen, darauf stoßen und zur Lektüre, zum Zuhören, zum Training am Computer angeregt werden. Inzwischen ist empirisch belegt, dass viele Bibliothekskunden gerade deshalb in die Bibliothek kommen, weil sie solche Anregungen erwarten. Der Vortrag gibt einen Überblick und geht auf positive Beispiele ein.
Leistungsmessung in Bibliotheken und Informationseinrichtungen steht im Kontext der Leistungsmessung von Nonprofit-Organisationen. Verschiedene Ansätze von Leistungsmessung bei Nonprofit-Organisationen werden vorgestellt. Leistungsindikatoren für Bibliotheken und Informationseinrichtungen werden auf diesem Hintergrund erörtert. Ausgewählte Leistungsindikatoren werden unter der Fragestellung diskutiert, ob sie messen, was sie messen sollen, und ob Vergleichbarkeit gegeben ist. Die Leistungsindikatoren in neun maßgeblichen Handbüchern zur Leistungsmessung werden verglichen. Es wird untersucht, wieweit diese Handbücher dieselben oder vergleichbare Leistungsindikatoren verwenden. Da die Wahl von Leistungsindikatoren vom Zielkonzept der Bibliothek abhängt, wird untersucht, welches Zielkonzept hinter dem Set an Leistungsindikatoren in den jeweiligen Handbüchern steht. Es werden Empfehlungen für einen intelligenten Umgang mit Leistungsmessung gegeben. Diese Publikation beruht auf dem Vortrag des Verfassers auf der Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) in Stutt-gart am 9. April 2003.
The thesis poses the question in which ways traditional book-historical research can be supported by digitisation and computational analysis. Not merely possibilities of support are explored. The crucial matter is whether completely new methods of re-search are evolving due to new potentials. How can modern methods of electronic storage, digital reproduction and computational analysis be employed for the investi-gation of medieval manuscripts or early printed material? The theoretical part focuses on one specific method of book-historical research – analytical bibliography. This method is discussed in detail: It is shown how it origi-nated in the descriptive bibliography of incunabula on the one hand and in the phi-lological study of literary texts of the Elizabethan era on the other hand. The main principle of analytical bibliography is, that printed material supplies the body of pri-mary evidence when trying to gather information about the production circum-stances and process. By evaluating the printed pages carefully, by taking into account every– intended and accidental – trace the printing press left, details can be inferred, that are not revealed by any secondary documents. Studying this evidence can help solve technical and chronological questions about the printing process and can also further textual studies. For this latter use the term “textual bibliography” has been established, while pure “analytical bibliography” is not concerned with textual prob-lems. After laying out more clearly the distinction between textual and analytical bibliog-raphy, the thesis explains several specific terms: edition, impression, issue, state, can-cellans, cancellandum, technique, procedure, practice, incidence – relying primarily on definitions by Lotte Hellinga and Martin Boghardt. The theoretical part concludes with an extensive discussion of procedures (based on the work of Martin Boghardt and Chrisoph Reske) of analytical bibliography. Examples, taken mainly from the study of Gutenberg-prints, illustrate this part. Finally, technical aids for this historical research method are presented. The Hinman Collator and its successors, as well as two different versions of composite imaging, one of them already making use of digi-tal photography and computational manipulation, are described, focusing on their key advantages and disadvantages. The second part of the thesis initially deals with different digitisation technologies, concentrating on aspects which are of importance specifically for medieval manu-scripts and early prints, the central problem being how to enable perfect representa-tion of details and - at the same time – guarantee the preservation of the material. Based on technical facts and on the experience of digitisation projects, criteria is de-veloped for choosing the modes of scanning and processing and benchmarking rules are established. Following these preliminary technical considerations, three important research projects using digitisation in different ways are presented and evaluated. The first, CEEC (Codices Electronici Ecclesia Coloniensis) is not concerned with analytical bibliography, but with the documentation of and research on one large manuscript collection. A system of digital cataloguing is presented, offering the pos-sibility for researchers from all over the world not only to use the supplied informa-tion, but also to contribute their own results. Digital representations of – so far – 65.000 pages of manuscripts of the Cologne collections are exhibited in different resolutions, up to 4.491 x 3.480 pixel. Furthermore, paleographical tools were devel-oped, translating traditional methods of analysing manuscript hands into digital methods. The second project, which is discussed, is the Japanese initaive HUMI (Humani-ties Media Interface), whose broad aim it is to build up a digital research environ-ment. One of the ambitions of HUMI is to digitise all remaining Gutenberg-Bibles (B 42) and to find out more about the typecase and other production circumstances with the help of computational analyses. So far, six copies of the B 42 have been digitized and partially made available via internet. Research has been done using methods of static and dynamic superimposition and line-by-line comparison, broadly speaking digital versions of collating machines. The remaining project is that of Paul Needham and Blaise Agüera y Arcas, two Princeton researchers whose work is based on the digitisation and computational analysis of several prints, one of them the Calixtus Bulla. Their research is probably the most sophisticated in terms of digitisation and computer-supported, mathemati-cal examination. Using their results, the two researchers have raised questions about some basic assumptions of the Gutenberg historiography and thereby caused a tre-mendous stir in the research community. So far no extensive publication has been brought forth by Needham and Arcas, making room for scepticism and criticism. The evaluation offered in the thesis is based on an unpublished article by one of the researchers and partially explains their method, but centers on showing perspectives and problems their – possibly groundbreaking – research poses. The summary compares these three projects, differentiating between several dig-itisation aims: to make material widely available, to offer new grounds for interna-tional discussion, to transfer traditional modes of research to the new medium or to offer completely new methods, unthinkable by traditional means. It is demonstrated that there is a wide range of possibilities of using digitisiation and/or computational analysis to – at the least – stimulate and facilitate research on historical t manuscripts and prints, but that one must wait for further advances to judge, whether a wholly new form of research, which makes digital technology compatible with the study of historical material without decontextualizing it, will be developed.
Eine der folgenreichsten kulturellen Umwälzungen des 19. Jahrhunderts war die Aneignung qualifizierter Lesefähigkeit durch 'das Volk', durch die unterbürgerlichen Schichten. Die Debatte um Ausmaß und Qualität des Alphabetisierungsprozesses ist keineswegs abgeschlossen.1 Man kann aber als gesichert annehmen, dass von 1800 bis zum Ersten Weltkrieg die Proportion zwischen denen, die weltliche Texte eigenständig sinnerschließend zu lesen vermochten, und den dazu Unfähigen sich in den städtischen und ländlichen Unterschichten umkehrte von bestenfalls 10:90 auf mindestens 90:10. Was seit Gutenberg vom Angebot her möglich war, wurde in der zweiten Hälfte des 19. Jahrhunderts in West- und Nordeuropa Realität: Beteiligung der großen Masse der Bevölkerung an der über einen potentiell unbegrenzt vielfältigen Markt vermittelten Rezeption von Text-Waren und deren Vorschlägen zur Welt- und Selbstdeutung. Sozialhistorisch ist hier der von Wolfgang Langenbucher (1975) eingeführte Begriff der "Leserevolution" durchaus angemessen.
Mit dieser „Kurzen Einführung in das Urheber- und Verlagsrecht“ will der Verfasser eine Zusammenfassung der wichtigsten gesetzlichen Grundlagen der Zusammenarbeit zwischen den Urhebern, insbesondere den Verfassern einerseits, und den Verwertern, insbesondere den Verlagen andererseits, geben. Die Darstellung berücksichtigt den Stand der Gesetzgebung zum 1. Juli 2002. Der Verfasser hat dabei versucht, in der gebotenen Kürze die nach der praktischen Erfahrung wesentlichsten Grundbegriffe darzustellen und dem Leser diese in systematischer, einheitlicher Form zu erläutern. Bewusst wurde dabei auf die Erörterung der dogmatischen Grundlagen sowie der vielfältigen divergierenden Meinungen in der Rechtsprechung und Literatur verzichtet.
Zusammen mit dem stetig expandierenden Internet haben elektronische Zeitschriften in den letzten Jahren eine sehr starke Verbreitung erfahren und sich zu einem wichtigen Gegenpol zu den traditionellen Publikationen entwickelt. Letztere werfen aufgrund ihrer aufwendigen und zunehmend teureren Verwaltung und Archivierung mittlerweile große Probleme auf, so daß sich ein Wandel in der Informationsversorgung abzeichnet. Die einfache Zugriffsmöglichkeit über den PC sowie ihre ständige Verfügbarkeit haben digitale Fachpublikationen in den Naturwissenschaften bereits zu einer viel genutzten Informationsquelle werden lassen und eine nicht geringe Anzahl besitzt mittlerweile auch einen festen Platz innerhalb des wissenschaftlichen Literaturkanons. Allerdings sind derzeit noch immer nicht alle Fragen, z.B. hinsichtlich der Sicherung eines langfristigen Zugangs, geklärt, wobei die Vielzahl an Publikationen seitens der Bibliothekare und der wissenschaftlichen Verlage den weiterhin regen Diskussionsbedarf offenbart. Die Endnutzer als eigentliche Adressaten der elektronischen Information sind dabei ein zentrales Thema, obwohl sich mittlerweile immer schwerer Aussagen über deren Verhalten treffen lassen, da vorrangig dezentral an den eigenen Computern fern der Bibliothek mit den digitalen Texten gearbeitet wird. Statistische Erhebungen, wie sie beispielsweise von manchen Verlagen oder Datenbankbetreibern angeboten werden, geben mit einfachen Zugriffsauflistungen nur ein sehr ungenaues Bild der tatsächlichen Nutzung wieder, da hier nicht danach differenziert werden kann, welche Texte wirklich im Volltext gelesen und welche nur angelesen und dann verworfen wurden.2 Daher konzentriert sich die vorliegende Magisterarbeit vornehmlich auf den Aspekt der Erforschung des Nutzerverhaltens der Forschenden, wobei die Auswertung der damit verbundenen Umfrage mittels eines Fragebogens im Zentrum steht. Dieser wurde in enger Zusammenarbeit mit den Mitarbeitern der Universitätsbibliothek Erlangen-Nürnberg entwickelt und soll einen weiteren Beitrag zur oben erwähnten, derzeitigen Diskussion liefern.