Refine
Year of publication
- 2003 (17) (remove)
Document Type
- Book (10)
- Other (4)
- Article (2)
- Researchpaper (1)
Language
- German (17)
Has Fulltext
- yes (17) (remove)
Is part of the Bibliography
- no (17)
Keywords
- Bibliothek (2)
- Urheberrecht (2)
- Arbeit (1)
- Arbeitsmarkt (1)
- Baden-Württemberg (1)
- Bibliotheksumzug (1)
- Bildschirm (1)
- Biologie (1)
- Buchforschung (1)
- Bund der Steuerzahler (1)
Institute
- Bibliothek (17) (remove)
Durch den Aufbau von Dokumenten- und Publikationsservern an Hochschulen wird zum einen die Möglichkeit geschaffen, die an der jeweiligen Hochschule entstehenden wissenschaftlichen Publikationen für eine weltweite Verfügbarkeit zu archivieren und anzubieten. Zum anderen trägt dieses Serviceangebot der Infrastruktureinrichtungen – Bibliothek und Rechenzentrum – zur Verbreitung des elektronischen Publizierens als neues Instrument des wissenschaftlichen Arbeitens bei. DINI – die Deutsche Initiative für Netzwerkinformation – unterstützt diese Entwicklungen, um so deutschland- und weltweit ein höheres Niveau der wissenschaftlichen Kommunikation zu erreichen. Dafür ist es notwendig, die Dokumenten- und Publikationsserver zu vernetzen. Ein Netzwerk von lokalen Publikationsservern ergänzt die vorherrschenden Verlagspublikationen. Es kann auch als Regulativ für die monopolistischen Tendenzen im wissenschaftlichen Publikationswesen dienen. Der Aufbau von Dokumenten- und Publikationsservern wird sowohl vom Wissenschaftsrat und der Hochschulrektorenkonferenz gefordert, als auch durch die Fördereinrichtungen wie das Bundesministerium für Forschung und Technologie und die Deutsche Forschungsgemeinschaft als aktuelle Aufgabe unterstützt. Wichtig erscheint dabei, dass diese Entwicklung nach internationalen Standards und auf der Basis einer gesicherten Technologie erfolgt. Ausgehend von der DINI-Schrift „Elektronisches Publizieren an Hochschulen“ vom März 2002, die als eine erste Orientierungshilfe veröffentlicht wurde, sollen mit dem vorliegenden Papier drei Ziele erreicht werden: - eine detaillierte Beschreibung der Anforderungen an einen Dokumenten- und Publikationsserver - das Aufzeigen von Entwicklungsrichtungen bei der Gestaltung von Servern und beim Austausch von Informationen über diese Server - ein für Nutzende und Betreiber sichtbare Dokumentation der Einhaltung von Standards und Empfehlungen durch diesen Server. Mit der Vergabe eines Zertifikats ermöglicht DINI e.V. erstmals eine Qualitätskontrolle für Dokumenten- und Publikationsserver. Um eine Zertifikat zu erhalten sind Mindestanforderungen an einen Server und seine Betreiber gestellt, die zur Wahrung einer modernen wissenschaftlichen Kommunikation unabdingbar sind. Gleichzeitig werden Empfehlungen gegeben, die die heute vorhersehbare Entwicklung charakterisieren und damit künftige Serveranforderungen darstellen. Die Kriterien für das DINI-Zertifikat werden durch eine Arbeitsgruppe anhand internationaler Standards und Entwicklungen überprüft und fortgeschrieben. Das Zertifikat wird deshalb mit dem Ausstellungsjahr gekennzeichnet werden.
Eine der folgenreichsten kulturellen Umwälzungen des 19. Jahrhunderts war die Aneignung qualifizierter Lesefähigkeit durch 'das Volk', durch die unterbürgerlichen Schichten. Die Debatte um Ausmaß und Qualität des Alphabetisierungsprozesses ist keineswegs abgeschlossen.1 Man kann aber als gesichert annehmen, dass von 1800 bis zum Ersten Weltkrieg die Proportion zwischen denen, die weltliche Texte eigenständig sinnerschließend zu lesen vermochten, und den dazu Unfähigen sich in den städtischen und ländlichen Unterschichten umkehrte von bestenfalls 10:90 auf mindestens 90:10. Was seit Gutenberg vom Angebot her möglich war, wurde in der zweiten Hälfte des 19. Jahrhunderts in West- und Nordeuropa Realität: Beteiligung der großen Masse der Bevölkerung an der über einen potentiell unbegrenzt vielfältigen Markt vermittelten Rezeption von Text-Waren und deren Vorschlägen zur Welt- und Selbstdeutung. Sozialhistorisch ist hier der von Wolfgang Langenbucher (1975) eingeführte Begriff der "Leserevolution" durchaus angemessen.
Im Dezember 2003 kommt die internationale Staatengemeinschaft erstmals im Rahmen eines Weltgipfels der Vereinten Nationen zusammen, um Fragen der globalen Informationsgesellschaft zu erörtern. Dies unterstreicht die Bedeutung von Wissen und Innovation für die globale Entwicklung und den Wohlstand. Gerade in einem hochentwickelten Land wie Deutschland sind die modernen Informations- und Kommunikationstechnologien (IuK) der Schlüssel, um Wissen und Innovation zur Steigerung von Wachstum, Wettbewerbsfähigkeit und Beschäftigung im Zeitalter einer vernetzten Welt zu nutzen. Wichtige Indikatoren für den „Reifegrad“ der globalen Informationsgesellschaft zeigen, dass Deutschland in den letzten Jahren deutlich vorangekommen ist. Der „Global Information Technology Report 2002-2003“ des World Economic Forum bescheinigt Deutschland eine beachtliche Verbesserung im ITLänder- Ranking – von Platz 17 im letzten Jahr auf Platz 10 heute. Im Bereich der Wirtschaftsakteure sind wir Spitze. Das gilt besonders für die Bereiche Innovation, Online-Marketing und Inter-/Intranetnutzung. In keinem Land der Welt gibt es mehr Websites pro Person als in Deutschland. Mit rund 85 Websites auf 1.000 Einwohner (USA: 60) legen die deutschen Internet -Nutzerinnen und Nutzer ein eindrückliches Zeugnis für ihr Interesse an einer aktiven Gestaltung des wichtigsten globalen Datennetzes ab. Die Informationsgesellschaft ist in Deutschland längst Wirklichkeit geworden. Seit dem Jahr 2001 gibt es in Deutschland mehr mobile als feste Telefonanschlüsse. Die Mobilfunkdichte hat in Deutschland mit knapp 80% ein hohes Niveau erreicht und soll weiter steigen. Innovative Anwendungen (z.B. MMS) und der Umstieg auf UMTS bieten Potenziale für weiteres Wachstum der Mobilfunkdienste. Die Nachfrage nach fixen und mobilen Breitbandanwendungen zieht weiter an und lässt einen Boom für die kommenden Jahre erwarten. Praktisch alle deutschen Unternehmen verfügen über einen Online-Anschluss. Für die Mehrheit der Bevölkerung gehören Computer und Internet inzwischen zum Alltag. Die meisten Verwaltungen sind online, über mehr als 700 Verwaltungsportale stellen Kommunen, Länder und Bundesbehörden rund um die Uhr Informationen und Dienstleistungen bereit.
Qualität und Effizienz von Forschung und Entwicklung sowie sonstige Maßnahmen im Bereich von Bildung und Forschung können wesentlich gesteigert werden, wenn die hierfür benötigten Fachinformationen umfassend, zuverlässig und rasch durch Recherchen in den weltweit verfügbaren elektronischen Informations-Banken ermittelt werden. Diese sind ein unerlässliches Hilfsmittel, weil sie die gezielte inhaltliche Suche nach Literatur sowie Daten und Fakten ermöglichen. Sie verkürzen z.B. den Nutzern in Forschungsund Entwicklungsabteilungen und den Wissenschaftlern die zeitraubende Literatursuche und ersparen in vielen Fällen das Studium einer Vielzahl von Publikationstexten, so dass sie sich schnell auf die für sie relevanten Arbeiten konzentrieren können.
Mit dem Landesverfassungsschutzgesetz vom 17. Oktober 1978 trat erstmals für die Arbeit des Landesamtes für Verfassungsschutz - es wurde 1952 aus den Verfassungsschutzbehörden der Länder Württemberg- Baden, Baden und Württemberg-Hohenzollern gebildet - eine gesetzliche Grundlage in Kraft. Durch das Gesetz über den Verfassungsschutz in Baden-Württemberg vom 22. Oktober 1991 wurden die Befugnisse des Landesamts für Verfassungsschutz konkretisiert und datenschutzrechtliche Regelungen eingeführt. Außerdem wurde zum ersten Mal festgeschrieben, dass das Innenministerium und der Verfassungsschutz die Öffentlichkeit über extremistische, sicherheitsgefährdende oder geheimdienstliche Tätigkeiten zu unterrichten haben. Obwohl damit erst seit 1991 eine entsprechende Verpflichtung zur Information der Öffentlichkeit besteht, erschien der erste Verfassungsschutzbericht bereits 1978 mit einem Umfang von 110 Seiten. Seit diesem Zeitpunkt wurde der Öffentlichkeit jedes Jahr ein Verfassungsschutzbericht präsentiert. Die Verfassungsschutzberichte der letzten 25 Jahre spiegeln ein kleines Stück der deutschen Nachkriegsgeschichte wider. Bedingt durch die politischen und gesellschaftspolitischen Veränderungen, die zunehmende Globalisierung, staatliche Maßnahmen wie Vereinsverbote und durch den technischen Wandel hat der Verfassungsschutz bei seiner Arbeit in den letzten 25 Jahren immer wieder andere Schwerpunkte gesetzt. Standen 1978 - also vor dem Zusammenbruch des „real existierenden Sozialismus“ - noch die Aktivitäten von Linksextremisten und dabei besonders die der „Rote Armee Fraktion“ (RAF) im Vordergrund, richtet sich nach den Terroranschlägen vom 11. September 2001 das Hauptaugenmerk des Landesamts für Verfassungsschutz auf dieBeobachtung der sicherheitsgefährdenden Bestrebungen von Ausländern. Nach wie vor werden aber auch Rechts- und Linksextremismus beobachtet und wertvolle Arbeit auf dem Gebiet der Spionageabwehr geleistet. Seit 1997 zählt die Beobachtung der „Scientology Organisation“ ebenfalls zu den Aufgaben des Verfassungsschutzes.
Mit dieser „Kurzen Einführung in das Urheber- und Verlagsrecht“ will der Verfasser eine Zusammenfassung der wichtigsten gesetzlichen Grundlagen der Zusammenarbeit zwischen den Urhebern, insbesondere den Verfassern einerseits, und den Verwertern, insbesondere den Verlagen andererseits, geben. Die Darstellung berücksichtigt den Stand der Gesetzgebung zum 1. Juli 2002. Der Verfasser hat dabei versucht, in der gebotenen Kürze die nach der praktischen Erfahrung wesentlichsten Grundbegriffe darzustellen und dem Leser diese in systematischer, einheitlicher Form zu erläutern. Bewusst wurde dabei auf die Erörterung der dogmatischen Grundlagen sowie der vielfältigen divergierenden Meinungen in der Rechtsprechung und Literatur verzichtet.
Zusammen mit dem stetig expandierenden Internet haben elektronische Zeitschriften in den letzten Jahren eine sehr starke Verbreitung erfahren und sich zu einem wichtigen Gegenpol zu den traditionellen Publikationen entwickelt. Letztere werfen aufgrund ihrer aufwendigen und zunehmend teureren Verwaltung und Archivierung mittlerweile große Probleme auf, so daß sich ein Wandel in der Informationsversorgung abzeichnet. Die einfache Zugriffsmöglichkeit über den PC sowie ihre ständige Verfügbarkeit haben digitale Fachpublikationen in den Naturwissenschaften bereits zu einer viel genutzten Informationsquelle werden lassen und eine nicht geringe Anzahl besitzt mittlerweile auch einen festen Platz innerhalb des wissenschaftlichen Literaturkanons. Allerdings sind derzeit noch immer nicht alle Fragen, z.B. hinsichtlich der Sicherung eines langfristigen Zugangs, geklärt, wobei die Vielzahl an Publikationen seitens der Bibliothekare und der wissenschaftlichen Verlage den weiterhin regen Diskussionsbedarf offenbart. Die Endnutzer als eigentliche Adressaten der elektronischen Information sind dabei ein zentrales Thema, obwohl sich mittlerweile immer schwerer Aussagen über deren Verhalten treffen lassen, da vorrangig dezentral an den eigenen Computern fern der Bibliothek mit den digitalen Texten gearbeitet wird. Statistische Erhebungen, wie sie beispielsweise von manchen Verlagen oder Datenbankbetreibern angeboten werden, geben mit einfachen Zugriffsauflistungen nur ein sehr ungenaues Bild der tatsächlichen Nutzung wieder, da hier nicht danach differenziert werden kann, welche Texte wirklich im Volltext gelesen und welche nur angelesen und dann verworfen wurden.2 Daher konzentriert sich die vorliegende Magisterarbeit vornehmlich auf den Aspekt der Erforschung des Nutzerverhaltens der Forschenden, wobei die Auswertung der damit verbundenen Umfrage mittels eines Fragebogens im Zentrum steht. Dieser wurde in enger Zusammenarbeit mit den Mitarbeitern der Universitätsbibliothek Erlangen-Nürnberg entwickelt und soll einen weiteren Beitrag zur oben erwähnten, derzeitigen Diskussion liefern.
Leistungsmessung in Bibliotheken und Informationseinrichtungen steht im Kontext der Leistungsmessung von Nonprofit-Organisationen. Verschiedene Ansätze von Leistungsmessung bei Nonprofit-Organisationen werden vorgestellt. Leistungsindikatoren für Bibliotheken und Informationseinrichtungen werden auf diesem Hintergrund erörtert. Ausgewählte Leistungsindikatoren werden unter der Fragestellung diskutiert, ob sie messen, was sie messen sollen, und ob Vergleichbarkeit gegeben ist. Die Leistungsindikatoren in neun maßgeblichen Handbüchern zur Leistungsmessung werden verglichen. Es wird untersucht, wieweit diese Handbücher dieselben oder vergleichbare Leistungsindikatoren verwenden. Da die Wahl von Leistungsindikatoren vom Zielkonzept der Bibliothek abhängt, wird untersucht, welches Zielkonzept hinter dem Set an Leistungsindikatoren in den jeweiligen Handbüchern steht. Es werden Empfehlungen für einen intelligenten Umgang mit Leistungsmessung gegeben. Diese Publikation beruht auf dem Vortrag des Verfassers auf der Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) in Stutt-gart am 9. April 2003.
Was die PISA-Studie für die allgemein bildenden Schulen aufzeigte, erhellte die STeFi-Studie für die Hochschulen: Schülern und Studenten fehlt weitgehend die Fä- higkeit, sich in der Informationsflut zielgerichtet zurechtzufinden. Die große Mehrheit der jungen Leute surft gern im Internet, aber wenn es darum geht, gezielt Antworten auf Fragen zu finden, sind die meisten hilflos. Es scheint, dass Schüler an deutschen Schulen lernen sollen, aber nicht das Lernen lernen können. Seit den 90er-Jahren unternehmen Bibliotheken verstärkt Anstrengungen, um Informationskompetenz zu vermitteln. Das ist mehr als die Fähigkeit, den Internet-PC bedienen und sich gegen Viren schützen zu können. Es geht um Recherche-Strategien, und zunächst erstmal darum, den eigenen Informationsbedarf abschätzen zu können. Ferner gehört zur Informationskompetenz die Fähigkeit, gefundene Informationen bewerten und sortieren zu können, damit sie schließlich in das eigene Wissen eingebaut werden können. Wie man Schüler und Studierende dahin bringt - dazu haben Bibliothekare, allen voran in USA, erfolgreiche didaktische Konzepte entwickelt und erprobt. Gute Erfahrungen haben Bibliothekare auch mit Strategien für Lernarrangements gemacht: Medien, die das Wissen vertiefen und den Horizont erweitern können, werden in der Bibliothek so präsentiert, dass Kunden, die nach nichts Bestimmtem suchen, darauf stoßen und zur Lektüre, zum Zuhören, zum Training am Computer angeregt werden. Inzwischen ist empirisch belegt, dass viele Bibliothekskunden gerade deshalb in die Bibliothek kommen, weil sie solche Anregungen erwarten. Der Vortrag gibt einen Überblick und geht auf positive Beispiele ein.
The thesis poses the question in which ways traditional book-historical research can be supported by digitisation and computational analysis. Not merely possibilities of support are explored. The crucial matter is whether completely new methods of re-search are evolving due to new potentials. How can modern methods of electronic storage, digital reproduction and computational analysis be employed for the investi-gation of medieval manuscripts or early printed material? The theoretical part focuses on one specific method of book-historical research – analytical bibliography. This method is discussed in detail: It is shown how it origi-nated in the descriptive bibliography of incunabula on the one hand and in the phi-lological study of literary texts of the Elizabethan era on the other hand. The main principle of analytical bibliography is, that printed material supplies the body of pri-mary evidence when trying to gather information about the production circum-stances and process. By evaluating the printed pages carefully, by taking into account every– intended and accidental – trace the printing press left, details can be inferred, that are not revealed by any secondary documents. Studying this evidence can help solve technical and chronological questions about the printing process and can also further textual studies. For this latter use the term “textual bibliography” has been established, while pure “analytical bibliography” is not concerned with textual prob-lems. After laying out more clearly the distinction between textual and analytical bibliog-raphy, the thesis explains several specific terms: edition, impression, issue, state, can-cellans, cancellandum, technique, procedure, practice, incidence – relying primarily on definitions by Lotte Hellinga and Martin Boghardt. The theoretical part concludes with an extensive discussion of procedures (based on the work of Martin Boghardt and Chrisoph Reske) of analytical bibliography. Examples, taken mainly from the study of Gutenberg-prints, illustrate this part. Finally, technical aids for this historical research method are presented. The Hinman Collator and its successors, as well as two different versions of composite imaging, one of them already making use of digi-tal photography and computational manipulation, are described, focusing on their key advantages and disadvantages. The second part of the thesis initially deals with different digitisation technologies, concentrating on aspects which are of importance specifically for medieval manu-scripts and early prints, the central problem being how to enable perfect representa-tion of details and - at the same time – guarantee the preservation of the material. Based on technical facts and on the experience of digitisation projects, criteria is de-veloped for choosing the modes of scanning and processing and benchmarking rules are established. Following these preliminary technical considerations, three important research projects using digitisation in different ways are presented and evaluated. The first, CEEC (Codices Electronici Ecclesia Coloniensis) is not concerned with analytical bibliography, but with the documentation of and research on one large manuscript collection. A system of digital cataloguing is presented, offering the pos-sibility for researchers from all over the world not only to use the supplied informa-tion, but also to contribute their own results. Digital representations of – so far – 65.000 pages of manuscripts of the Cologne collections are exhibited in different resolutions, up to 4.491 x 3.480 pixel. Furthermore, paleographical tools were devel-oped, translating traditional methods of analysing manuscript hands into digital methods. The second project, which is discussed, is the Japanese initaive HUMI (Humani-ties Media Interface), whose broad aim it is to build up a digital research environ-ment. One of the ambitions of HUMI is to digitise all remaining Gutenberg-Bibles (B 42) and to find out more about the typecase and other production circumstances with the help of computational analyses. So far, six copies of the B 42 have been digitized and partially made available via internet. Research has been done using methods of static and dynamic superimposition and line-by-line comparison, broadly speaking digital versions of collating machines. The remaining project is that of Paul Needham and Blaise Agüera y Arcas, two Princeton researchers whose work is based on the digitisation and computational analysis of several prints, one of them the Calixtus Bulla. Their research is probably the most sophisticated in terms of digitisation and computer-supported, mathemati-cal examination. Using their results, the two researchers have raised questions about some basic assumptions of the Gutenberg historiography and thereby caused a tre-mendous stir in the research community. So far no extensive publication has been brought forth by Needham and Arcas, making room for scepticism and criticism. The evaluation offered in the thesis is based on an unpublished article by one of the researchers and partially explains their method, but centers on showing perspectives and problems their – possibly groundbreaking – research poses. The summary compares these three projects, differentiating between several dig-itisation aims: to make material widely available, to offer new grounds for interna-tional discussion, to transfer traditional modes of research to the new medium or to offer completely new methods, unthinkable by traditional means. It is demonstrated that there is a wide range of possibilities of using digitisiation and/or computational analysis to – at the least – stimulate and facilitate research on historical t manuscripts and prints, but that one must wait for further advances to judge, whether a wholly new form of research, which makes digital technology compatible with the study of historical material without decontextualizing it, will be developed.