Book
Refine
Year of publication
- 2003 (12) (remove)
Document Type
- Book (12) (remove)
Language
- German (12)
Has Fulltext
- yes (12)
Is part of the Bibliography
- no (12)
Keywords
- Bibliothek (2)
- Urheberrecht (2)
- Bibliotheksumzug (1)
- Bildschirm (1)
- Biologie (1)
- Buchforschung (1)
- Bund der Steuerzahler (1)
- Datenbank (1)
- Desktop-Publishing (1)
- Digitalisierung (1)
Institute
Mit dem Landesverfassungsschutzgesetz vom 17. Oktober 1978 trat erstmals für die Arbeit des Landesamtes für Verfassungsschutz - es wurde 1952 aus den Verfassungsschutzbehörden der Länder Württemberg- Baden, Baden und Württemberg-Hohenzollern gebildet - eine gesetzliche Grundlage in Kraft. Durch das Gesetz über den Verfassungsschutz in Baden-Württemberg vom 22. Oktober 1991 wurden die Befugnisse des Landesamts für Verfassungsschutz konkretisiert und datenschutzrechtliche Regelungen eingeführt. Außerdem wurde zum ersten Mal festgeschrieben, dass das Innenministerium und der Verfassungsschutz die Öffentlichkeit über extremistische, sicherheitsgefährdende oder geheimdienstliche Tätigkeiten zu unterrichten haben. Obwohl damit erst seit 1991 eine entsprechende Verpflichtung zur Information der Öffentlichkeit besteht, erschien der erste Verfassungsschutzbericht bereits 1978 mit einem Umfang von 110 Seiten. Seit diesem Zeitpunkt wurde der Öffentlichkeit jedes Jahr ein Verfassungsschutzbericht präsentiert. Die Verfassungsschutzberichte der letzten 25 Jahre spiegeln ein kleines Stück der deutschen Nachkriegsgeschichte wider. Bedingt durch die politischen und gesellschaftspolitischen Veränderungen, die zunehmende Globalisierung, staatliche Maßnahmen wie Vereinsverbote und durch den technischen Wandel hat der Verfassungsschutz bei seiner Arbeit in den letzten 25 Jahren immer wieder andere Schwerpunkte gesetzt. Standen 1978 - also vor dem Zusammenbruch des „real existierenden Sozialismus“ - noch die Aktivitäten von Linksextremisten und dabei besonders die der „Rote Armee Fraktion“ (RAF) im Vordergrund, richtet sich nach den Terroranschlägen vom 11. September 2001 das Hauptaugenmerk des Landesamts für Verfassungsschutz auf dieBeobachtung der sicherheitsgefährdenden Bestrebungen von Ausländern. Nach wie vor werden aber auch Rechts- und Linksextremismus beobachtet und wertvolle Arbeit auf dem Gebiet der Spionageabwehr geleistet. Seit 1997 zählt die Beobachtung der „Scientology Organisation“ ebenfalls zu den Aufgaben des Verfassungsschutzes.
Die Musikwirtschaft wird das Internet nicht überleben. MP3s, Tauschbörsen und die jetzt einsetzenden Verkaufseinbrüche sind nur Vorboten einer sehr viel umfassenderen Krise, an derem Ende der Zusammenbruch einer gesamten Branche stehen wird. Parallel dazu entwickelt sich seit Napster eine neue Form der Musikwirtschaft, die an Stelle von Tonträgern und Charterfolgen auf das Internet und Filesharing setzt. Wer sind die Akteure dieser neuen Musikindustrie? Welche Ziele verfolgen sie, was unterscheidet sie von den traditionellen Plattenfirmen? Warum sind die Strukturen der alten Musikwirtschaft zum Untergang verdammt? Wie werden Musiker in Zukunft ihr Einkommen bestreiten? Und was bedeutet all dies für unsere vernetzte Zukunft? Um Antworten auf diese Fragen zu finden, interviewte der Autor dieses Buchs Brancheninsider und Netzexperten in Deutschland und den USA. Herausgekommen ist dabei ein spannendes Portrait einer Industrie, deren Ende einer der wichtigsten Neuanfänge des 21. Jahrhunderts werden könnte.
Mit dieser „Kurzen Einführung in das Urheber- und Verlagsrecht“ will der Verfasser eine Zusammenfassung der wichtigsten gesetzlichen Grundlagen der Zusammenarbeit zwischen den Urhebern, insbesondere den Verfassern einerseits, und den Verwertern, insbesondere den Verlagen andererseits, geben. Die Darstellung berücksichtigt den Stand der Gesetzgebung zum 1. Juli 2002. Der Verfasser hat dabei versucht, in der gebotenen Kürze die nach der praktischen Erfahrung wesentlichsten Grundbegriffe darzustellen und dem Leser diese in systematischer, einheitlicher Form zu erläutern. Bewusst wurde dabei auf die Erörterung der dogmatischen Grundlagen sowie der vielfältigen divergierenden Meinungen in der Rechtsprechung und Literatur verzichtet.
Zusammen mit dem stetig expandierenden Internet haben elektronische Zeitschriften in den letzten Jahren eine sehr starke Verbreitung erfahren und sich zu einem wichtigen Gegenpol zu den traditionellen Publikationen entwickelt. Letztere werfen aufgrund ihrer aufwendigen und zunehmend teureren Verwaltung und Archivierung mittlerweile große Probleme auf, so daß sich ein Wandel in der Informationsversorgung abzeichnet. Die einfache Zugriffsmöglichkeit über den PC sowie ihre ständige Verfügbarkeit haben digitale Fachpublikationen in den Naturwissenschaften bereits zu einer viel genutzten Informationsquelle werden lassen und eine nicht geringe Anzahl besitzt mittlerweile auch einen festen Platz innerhalb des wissenschaftlichen Literaturkanons. Allerdings sind derzeit noch immer nicht alle Fragen, z.B. hinsichtlich der Sicherung eines langfristigen Zugangs, geklärt, wobei die Vielzahl an Publikationen seitens der Bibliothekare und der wissenschaftlichen Verlage den weiterhin regen Diskussionsbedarf offenbart. Die Endnutzer als eigentliche Adressaten der elektronischen Information sind dabei ein zentrales Thema, obwohl sich mittlerweile immer schwerer Aussagen über deren Verhalten treffen lassen, da vorrangig dezentral an den eigenen Computern fern der Bibliothek mit den digitalen Texten gearbeitet wird. Statistische Erhebungen, wie sie beispielsweise von manchen Verlagen oder Datenbankbetreibern angeboten werden, geben mit einfachen Zugriffsauflistungen nur ein sehr ungenaues Bild der tatsächlichen Nutzung wieder, da hier nicht danach differenziert werden kann, welche Texte wirklich im Volltext gelesen und welche nur angelesen und dann verworfen wurden.2 Daher konzentriert sich die vorliegende Magisterarbeit vornehmlich auf den Aspekt der Erforschung des Nutzerverhaltens der Forschenden, wobei die Auswertung der damit verbundenen Umfrage mittels eines Fragebogens im Zentrum steht. Dieser wurde in enger Zusammenarbeit mit den Mitarbeitern der Universitätsbibliothek Erlangen-Nürnberg entwickelt und soll einen weiteren Beitrag zur oben erwähnten, derzeitigen Diskussion liefern.
Auch wenn der Zauberlehrling Harry Potter mit jedem neuen Band die bisherigen Buchmarktrekordzahlen übertrumpft, so ist dies bei genauerer Betrachtung kein Ausdruck einer magisch aufblühende Lesefreude deutscher Kinder. Mit der Potter-Manie ging letztlich kein Leseaufschwung einher, im Gegenteil, da die Potter-Bände überdurchschnittlich teuer sind, wurden 2001 und 2002 in Deutschland - von den Stückzahlen her - insgesamt weniger Kinder- und Jugendbücher abgesetzt als in den späten 1990er Jahren. Harry Potter ist ein Medienereignis, bislang fehlen aber repräsentative Untersuchungen zur Qualität der Potter-Lektüre. Bei mehreren Befragungen von Kindern und Jugendlichen, die das Stuttgarter Institut für angewandte Kindermedienforschung (IfaK) in den letzten Jahren zum Leseverhalten und den Lektürepräferenzen durchgeführt hat, zeigte sich häufig, dass der Inhalt des „geliebten“ oder gerade gelesenen Harry Potter- Bandes nicht wiedergegeben werden konnte oder es wurde eingeräumt, dass das Buch nur angelesen und wieder aus der Hand gelegt worden war. Neuere Studien zur Mediennutzung belegen übereinstimmend, dass Kinder- und Jugendbücher an Bedeutung im Medienalltag verloren haben. Vorrangige Ereignis- und Erlebnisqualitäten bieten heute aufwändig-spektakuläre Hollywoodfilme, Daily Soaps oder Mystery-Serien im Fernsehen, neue PC- oder Videogames, die Auftritte von Soap- oder Superstars aus den Retorten der Medienmultis. Diese Medienereignisse widerspiegeln sich auch in den Printmedien, in Form von Film- oder TV-Begleitbüchern, durch Personality- oder Making of-Books, in Fan- und Starzeitschriften. Gerade für Kinder und Jugendliche lassen sich Bücher besonders erfolgreich im Verbund mit anderen Medien vermarkten.
Leistungsmessung in Bibliotheken und Informationseinrichtungen steht im Kontext der Leistungsmessung von Nonprofit-Organisationen. Verschiedene Ansätze von Leistungsmessung bei Nonprofit-Organisationen werden vorgestellt. Leistungsindikatoren für Bibliotheken und Informationseinrichtungen werden auf diesem Hintergrund erörtert. Ausgewählte Leistungsindikatoren werden unter der Fragestellung diskutiert, ob sie messen, was sie messen sollen, und ob Vergleichbarkeit gegeben ist. Die Leistungsindikatoren in neun maßgeblichen Handbüchern zur Leistungsmessung werden verglichen. Es wird untersucht, wieweit diese Handbücher dieselben oder vergleichbare Leistungsindikatoren verwenden. Da die Wahl von Leistungsindikatoren vom Zielkonzept der Bibliothek abhängt, wird untersucht, welches Zielkonzept hinter dem Set an Leistungsindikatoren in den jeweiligen Handbüchern steht. Es werden Empfehlungen für einen intelligenten Umgang mit Leistungsmessung gegeben. Diese Publikation beruht auf dem Vortrag des Verfassers auf der Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) in Stutt-gart am 9. April 2003.
Was die PISA-Studie für die allgemein bildenden Schulen aufzeigte, erhellte die STeFi-Studie für die Hochschulen: Schülern und Studenten fehlt weitgehend die Fä- higkeit, sich in der Informationsflut zielgerichtet zurechtzufinden. Die große Mehrheit der jungen Leute surft gern im Internet, aber wenn es darum geht, gezielt Antworten auf Fragen zu finden, sind die meisten hilflos. Es scheint, dass Schüler an deutschen Schulen lernen sollen, aber nicht das Lernen lernen können. Seit den 90er-Jahren unternehmen Bibliotheken verstärkt Anstrengungen, um Informationskompetenz zu vermitteln. Das ist mehr als die Fähigkeit, den Internet-PC bedienen und sich gegen Viren schützen zu können. Es geht um Recherche-Strategien, und zunächst erstmal darum, den eigenen Informationsbedarf abschätzen zu können. Ferner gehört zur Informationskompetenz die Fähigkeit, gefundene Informationen bewerten und sortieren zu können, damit sie schließlich in das eigene Wissen eingebaut werden können. Wie man Schüler und Studierende dahin bringt - dazu haben Bibliothekare, allen voran in USA, erfolgreiche didaktische Konzepte entwickelt und erprobt. Gute Erfahrungen haben Bibliothekare auch mit Strategien für Lernarrangements gemacht: Medien, die das Wissen vertiefen und den Horizont erweitern können, werden in der Bibliothek so präsentiert, dass Kunden, die nach nichts Bestimmtem suchen, darauf stoßen und zur Lektüre, zum Zuhören, zum Training am Computer angeregt werden. Inzwischen ist empirisch belegt, dass viele Bibliothekskunden gerade deshalb in die Bibliothek kommen, weil sie solche Anregungen erwarten. Der Vortrag gibt einen Überblick und geht auf positive Beispiele ein.
The thesis poses the question in which ways traditional book-historical research can be supported by digitisation and computational analysis. Not merely possibilities of support are explored. The crucial matter is whether completely new methods of re-search are evolving due to new potentials. How can modern methods of electronic storage, digital reproduction and computational analysis be employed for the investi-gation of medieval manuscripts or early printed material? The theoretical part focuses on one specific method of book-historical research – analytical bibliography. This method is discussed in detail: It is shown how it origi-nated in the descriptive bibliography of incunabula on the one hand and in the phi-lological study of literary texts of the Elizabethan era on the other hand. The main principle of analytical bibliography is, that printed material supplies the body of pri-mary evidence when trying to gather information about the production circum-stances and process. By evaluating the printed pages carefully, by taking into account every– intended and accidental – trace the printing press left, details can be inferred, that are not revealed by any secondary documents. Studying this evidence can help solve technical and chronological questions about the printing process and can also further textual studies. For this latter use the term “textual bibliography” has been established, while pure “analytical bibliography” is not concerned with textual prob-lems. After laying out more clearly the distinction between textual and analytical bibliog-raphy, the thesis explains several specific terms: edition, impression, issue, state, can-cellans, cancellandum, technique, procedure, practice, incidence – relying primarily on definitions by Lotte Hellinga and Martin Boghardt. The theoretical part concludes with an extensive discussion of procedures (based on the work of Martin Boghardt and Chrisoph Reske) of analytical bibliography. Examples, taken mainly from the study of Gutenberg-prints, illustrate this part. Finally, technical aids for this historical research method are presented. The Hinman Collator and its successors, as well as two different versions of composite imaging, one of them already making use of digi-tal photography and computational manipulation, are described, focusing on their key advantages and disadvantages. The second part of the thesis initially deals with different digitisation technologies, concentrating on aspects which are of importance specifically for medieval manu-scripts and early prints, the central problem being how to enable perfect representa-tion of details and - at the same time – guarantee the preservation of the material. Based on technical facts and on the experience of digitisation projects, criteria is de-veloped for choosing the modes of scanning and processing and benchmarking rules are established. Following these preliminary technical considerations, three important research projects using digitisation in different ways are presented and evaluated. The first, CEEC (Codices Electronici Ecclesia Coloniensis) is not concerned with analytical bibliography, but with the documentation of and research on one large manuscript collection. A system of digital cataloguing is presented, offering the pos-sibility for researchers from all over the world not only to use the supplied informa-tion, but also to contribute their own results. Digital representations of – so far – 65.000 pages of manuscripts of the Cologne collections are exhibited in different resolutions, up to 4.491 x 3.480 pixel. Furthermore, paleographical tools were devel-oped, translating traditional methods of analysing manuscript hands into digital methods. The second project, which is discussed, is the Japanese initaive HUMI (Humani-ties Media Interface), whose broad aim it is to build up a digital research environ-ment. One of the ambitions of HUMI is to digitise all remaining Gutenberg-Bibles (B 42) and to find out more about the typecase and other production circumstances with the help of computational analyses. So far, six copies of the B 42 have been digitized and partially made available via internet. Research has been done using methods of static and dynamic superimposition and line-by-line comparison, broadly speaking digital versions of collating machines. The remaining project is that of Paul Needham and Blaise Agüera y Arcas, two Princeton researchers whose work is based on the digitisation and computational analysis of several prints, one of them the Calixtus Bulla. Their research is probably the most sophisticated in terms of digitisation and computer-supported, mathemati-cal examination. Using their results, the two researchers have raised questions about some basic assumptions of the Gutenberg historiography and thereby caused a tre-mendous stir in the research community. So far no extensive publication has been brought forth by Needham and Arcas, making room for scepticism and criticism. The evaluation offered in the thesis is based on an unpublished article by one of the researchers and partially explains their method, but centers on showing perspectives and problems their – possibly groundbreaking – research poses. The summary compares these three projects, differentiating between several dig-itisation aims: to make material widely available, to offer new grounds for interna-tional discussion, to transfer traditional modes of research to the new medium or to offer completely new methods, unthinkable by traditional means. It is demonstrated that there is a wide range of possibilities of using digitisiation and/or computational analysis to – at the least – stimulate and facilitate research on historical t manuscripts and prints, but that one must wait for further advances to judge, whether a wholly new form of research, which makes digital technology compatible with the study of historical material without decontextualizing it, will be developed.