index num_words_total_L1 num_words_total_L2 title_L1 title_L2 abstract_L1 abstract_L2 1 133 133 Attitudes towards culturally-ethnically heterogeneous groups of students and its meaning for individualized differentiated instruction in classroom context Einstellungen und Motivation bezogen auf kulturell-ethnisch heterogene Schülerinnen- und Schülergruppen und ihre Bedeutung für differenzielle Instruktion im Unterricht The present paper deals with the question to what extent aspects of the professional competence of teachers are important for diversity-sensitive teaching. It focuses on teachers’ attitudes and motivational orientation toward cultural-ethnic diversity and their impact on individualized differential teaching. Data of N = 250 teachers are examined using structural equation models and gender-specific differences are examined using multi-group structural equation models. The results indicate that attitudes and motivational orientations of teachers are important for diversity-sensitive teaching. An examination of gender-specific differences for the correlation patterns found showed only minor differences. The results highlight the importance of professional competence of teachers for diversity-sensitive teaching and are discussed with regard to their implications for research and practice. Der Beitrag widmet sich der Frage, inwieweit Aspekte der professionellen Kompetenz von Lehrkräften von Bedeutung für einen diversitätssensiblen Unterricht sind. Der Fokus liegt dabei auf Einstellungen und motivationaler Orientierung von Lehrkräften und untersucht die Bedeutsamkeit für einen differenziellen Unterricht im Kontext kulturell-ethnischer Diversität. Daten von N = 250 Lehrkräften wurden anhand von Strukturgleichungsmodellen analysiert sowie geschlechtsspezifische Unterschiede anhand von Mehrgruppenstrukturgleichungsmodellen geprüft. Die Ergebnisse weisen darauf hin, dass Einstellungen und motivationale Orientierung von substanzieller Relevanz für eine diversitätssensible Unterrichtsgestaltung sind. Eine Prüfung geschlechtsspezifischer Differenzen für die gefundenen Zusammenhangsmuster zeigen nur geringe Unterschiede. Die Ergebnisse heben die Bedeutung der professionellen Kompetenz von Lehrkräften für diversitätssensiblen Unterricht hervor und werden hinsichtlich ihrer Implikation für Forschung und Praxis diskutiert. 2 103 100 Learning in network structures Lernen in Netzwerkstrukturen 3 142 114 Searches for new physics with neutrino oscillations in the high precision era In this thesis we explore several new physics models and their implications on current neutrino oscillation experiments. In particular we develop a novel model-independent method to analyze the CP violation in neutrino oscillations, based on the unitarity constraints for the leptonic mixing matrix. We can show that current experiments like T2K or NOvA have su cient sensitivity to restrict new physics models signi cantly. The inclusion of matter e ects into this new approach leads to new challenges, that are studied in more detail. Additionally we analyzes the impact of a light sterile neutrino on the determination of the mass hierarchy at the JUNO experiment. We also propose the rst stringent model that can explain all current neutrino oscillation anomalies and is consistent with atmospheric and accelerator based neutrino experiments. Die vorliegende Dissertation behandelt den Einfluss neuer Physik auf die Messungen aktueller Neutrino-Oszillations-Experimente. Insbesondere wird eine neue modellunabhängige Methode zur Analyse der CP-Verletzung in Neutrino Oszillationen entwickelt, die auf Unitaritäts-Argumenten beruht. Es wird gezeigt, dass aktuelle Experimente wie T2K oder NOvA in der Lage sind, den Parameter-Bereich für viele Modelle stark einzuschränken. Durch Einbeziehen der Materie-Effekte in diese neue Methode ergeben sich zahlreiche Herausforderungen, die tiefgehender behandelt werden. Außerdem wird der Einfluss eines leichten sterilen Neutrinos auf die Bestimmung der Massen-Hierarchie beim JUNO Experiment untersucht. Zusätzlich wird das erste stringente Modell entwickelt, das alle aktuellen Anomalien im Neutrino Bereich erklären kann und gleichzeitig konsistent ist mit Messungen von atmosphärischen Neutrinos und Neutrinos aus Beschleuniger-Experimenten. 4 224 213 Two-stage methods for multimodal optimization For many practical optimization problems it seems advisable to seek not only a single optimal solution, but a diverse set of good solutions. The rationale behind this opinion is that a decision maker may want to consider additional criteria, which are not included in the optimization problem itself. Reasons for not including them are for example that the expert knowledge constituting the additional criteria has not been formalized or that the evaluation of the additional criteria is more or less subjective. The area containing single-objective problems with the need to identify a set of solutions is currently called multimodal optimization. In this work, we apply two-stage optimization algorithms, which consist of alternating global and local searches, to these problems. These algorithms are attractive because of their simplicity and their demonstrated performance on multimodal problems. The main focus is on improving the global stages, as local search is already a thoroughly investigated topic. This is done by considering previously sampled points and found optima in the global sampling, thus obtaining a super-uniform distribution. The approach is based on maximizing the minimal distance in a point set, while boundary effects of the box-constrained search space are avoided by correction methods. Experiments confirm the superiority of this algorithm over random uniform sampling and other methods in various different settings of multimodal optimization. Für viele praktische Optimierungsprobleme ist es ratsam nicht nur eine einzelne optimale Lösung zu suchen, sondern eine Menge von Lösungen die gut und untereinander verschieden sind. Die Argumentation hinter dieser Meinung ist, dass ein Entscheidungsträger möglicherweise nachträglich zusätzliche Kriterien einbringen möchte, die nicht im Optimierungsproblem enthalten waren. Gründe für die Nichtberücksichtigung im Optimierungsproblem sind zum Beispiel dass das notwendige Expertenwissen noch nicht formalisiert wurde, oder dass die Bewertung der Zusatzkriterien mehr oder weniger subjektiv abläuft. Das Forschungsgebiet für diese einkriteriellen Optimierungsprobleme mit Bedarf für eine Menge von mehreren Lösungen wird momentan mit dem Begriff multimodale Optimierung umschrieben. In dieser Arbeit wenden wir zweistufige Optimieralgorithmen, die aus sich abwechselnden globalen und lokalen Komponenten bestehen, auf diese Probleme an. Diese Algorithmen sind attraktiv für uns wegen ihrer Einfachheit und ihrer belegten Leistungsfähigkeit auf multimodalen Problemen. Das Hauptaugenmerk liegt darauf, die globale Phase zu verbessern, da lokale Suche schon ein gut erforschtes Themengebiet ist. Wir tun dies, indem wir vorher ausgewertete Punkte und bereits bekannte Optima in unserem globalen Samplingalgorithmus berücksichtigen. Unser Ansatz basiert auf der Maximierung der minimalen Distanz in einer Punktmenge, während Kanteneffekte, welche durch die Beschränktheit des Suchraums verursacht werden, durch geeignete Korrekturmaßnahmen verhindert werden. Experimente bestätigen die Überlegenheit dieses Algorithmus gegenüber zufällig gleichverteiltem Sampling und anderen Methoden in diversen Problemstellungen multimodaler Optimierung. 5 88 95 Generierung eines syntaxgesteuerten Editors für ProSet mit dem Synthesizer Generator The object of this diploma thesis is the development of a syntax-directed editor for the prototyping language ProSet. As the editor will allow further tools access to the internal representation of programs it will be the central element of an integrated, increment-oriented program development environment for ProSet. The development of syntax-directed editors on the abstraction level of universal programming languages is very komplex and inflexible in respect of a further development of the supported programming language. This thesis uses the Synthesizer-Generator, a special tool for developing syntax-directed editors. Die Aufgabe dieser Diplomarbeit ist die Entwicklung eines syntaxgesteuerten Editors für die Prototyping-Sprache ProSet. Dieser Editor wird zentrales Element einer integrierten, inkrementorientierten Programmentwicklungsumgebung (PEU) für ProSet sein, indem er weiteren Werkzeugen einen Zugriff auf die interne Darstellung von Programmen ermöglicht. Da sich die Entwicklung syntaxgesteuerter Editoren auf der Abstraktionsebene universeller Programmiersprachen einerseits als äußert komplex und andererseits als recht unflexibel hinsichtlich einer möglichen Weiterentwicklung der zu unterstützenden Programmiersprache erweist, wird in dieser Arbeit der Synthesizer-Generator, ein Werkzeug, das speziell der Generierung syntaxgesteuerter Editoren dient, eingesetzt. 6 145 133 Reconstruction of surfaces from unorganized three-dimensional point clouds In this thesis a new algorithm for the reconstruction of surfaces from three-dimensional point clouds is presented. Its particular features are the reconstruction of open surfaces with boundaries, data sets with variable density, and the treatment of sharp edges, that is, locations of infinite curvature. We give formal arguments which explain why the algorithm works well. They consist of a definition of 'reconstruction', and the demonstration of existence of sampling sets for which the algorithm is successful. This mathematical analysis focuses on compact surfaces of limited curvature without boundary. Further contributions are the application of the surface reconstruction algorithm for interactive shape design and a smoothing procedure for noise elimination in point clouds. Additionally, the algorithm can be easily applied for locally-restricted reconstruction if only a subset of the data set has to be considered for reconstruction. In dieser Arbeit wird ein neuer Algorithmus zur Rekonstruktion von Flächen aus dreidimensionalen Punktwolken präsentiert. Seine besonderen Eigenschaften sind die Rekonstruktion von offenen Flächen mit Rändern, Datensätzen mit variabler Punktdichte und die Behandlung von scharfen Kanten, d.h. Stellen mit unendlicher Krümmung. Es werden formale Argumente angegeben, die erklären, warum der Algorithmus korrekt arbeitet. Sie bestehen aus einer Definition von 'Rekonstruktion' und dem Beweis der Existenz von Punktmengen für die der Algorithmus erfolgreich ist. Diese mathematische Analyse konzentriert sich dabei auf kompakte Flächen mit beschränkter Krümmung und ohne Ränder. Weitere Beiträge sind die Anwendung des Flächenrekonstruktionsverfahrens für die interaktive Modellierung von Flächen und eine Prozedur für die Glättung von verrauschten Punktwolken. Zusätzlich kann der Algorithmus leicht für die lokal beschränkte Rekonstruktion eingesetzt werden, wenn nur ein Teil des Datensatzes zur Rekonstruktion herangezogen werden soll. 7 419 405 Reflection in novice English teacher development: a future perspective This qualitative research examines the reflections of four novice EFL teachers with regard to concepts, contexts, and content of reflective experiences. Data collection instruments include semi-structured interviews, in-depth interviews, written journals and observations, videos, audio recordings, transcripts, and other documents. The first research question explores the participants’ concept of reflection and reflective practices. The results reveal that the participants had no real prior professional experience with reflection as a practice for teacher development. However, they were, individually, able to mention some of the core reflective characteristics of reflective practices. The reflective practices were unstructured and unconscious. The participants highlighted their ability to reflect based on their personal beliefs, not based on teaching and learning and teaching theories. They learned some features of reflection from practice in the school context. All of the participants reported a lack of opportunities for reflective practices. The second question investigates three levels of reflection with relation to the three main elements of the lesson: objectives, instructional activities and assessment. The results show that the pre-interviews and the post-interviews served as initial opportunities for reflection. The discussion was a context for guided reflection. In addition to the fact that they offered a context for written reflection, response journals provided an opportunity to reflect on aspects that were not covered during the discussion and the reflective journal served as a semi-independent experience. The participants reflected on various activities in different contexts. Consequently, the level of reflection was influenced by the context of the reflective practice. The third question explores the three types of knowledge (content knowledge, pedagogical knowledge, and pedagogical content knowledge) the participants accessed during reflection on the same three main elements of the lesson. The results illustrate that the participants’ reflection, individually, centered on classroom management, individual differences, the integration of the four skills/competencies, and instructional design. Taking the theoretical backgrounds that the participants mentioned during their reflection into consideration, no clear reference was made to second language acquisition theories and English as a Foreign Language methods and approaches. This research study thus shows evidence that novice teachers require increased support in both reflection methods and theories of reflection as well as in education on other pedagogical content theories in the context of EFL. The lesson learned is that perception of reflective practice, the levels of reflective practice, and the content of reflection on the content knowledge, pedagogical knowledge, and pedagogical content knowledge - are necessary in developing a “survival kit” for novice English teachers. Die vorliegende qualitative Forschungsstudie untersuchte die Reflexionen von vier unerfahrenen Lehrern für Englisch als Fremdsprache. Die Datenerhebungsinstrumente umfassten semi-strukturierte Interviews, ausführliche Interviews, schriftliche Tagebücher und Beobachtungen, Video- und Tonaufnahmen, Transkripte sowie andere Dokumente. Die erste Frage der Studie analysierte Daten hinsichtlich des Konzepts der Reflexion sowie reflektierender Praktiken. Die Ergebnisse zeigen, dass die Teilnehmer keine berufliche Erfahrungen mit Reflexion als Praxis für Lehrerentwicklung und lebenslanges Lernen hatten. Sie waren jedoch in der Lage, einige der Kernmerkmale reflektierender Praktiken zu nennen. Die Reflexionen der Teilnehmer waren unstrukturiert und unbewusst. Insgesamt haben die Teilnehmer die Fähigkeit betont, auf der Grundlage ihrer persönlichen Überzeugungen, aber nicht auf der von Bildungstheorien zu reflektieren. Sie lernten einige Aspekte der Reflexion aus der Praxis. Nichtsdestotrotz berichteten alle Teilnehmer von einem Mangel an Möglichkeiten für Reflexion. Mit der zweiten Frage wurden die drei Reflexionsebenen in den folgenden drei Hauptelementen des Unterrichts erforscht: die Ziele, die Unterrichtstätigkeit, und die Bewertung. Die Ergebnisse dieser Frage zeigen, dass die Vor- und Nachgespräche die ersten beiden Gelegenheiten zur Reflexion in der Praxis waren. Die folgende Diskussion war ein Kontext für geleitete Reflexion. Neben der Tatsache, dass sie einen schriftlichen Kontext zur Reflexion boten, etablierten die Response-Tagebücher eine Gelegenheit, über Aspekte zu reflektieren, die in der Diskussion nicht vollständig behandelt wurden. Reflexionstagebücher erwiesen sich als eine unabhängige Erfahrung, bei der die Teilnehmer selbstständig auf Fragen des Forschers reagierten. Die Teilnehmer reflektierten somit über verschiedene Aktivitäten in unterschiedlichen Kontexten. Folglich wurde das Reflexionsniveau durch den Kontext der Reflexionsaufgaben beeinflusst. Die dritte Frage erforschte die drei Arten von Wissen (Inhaltswissen, pädagogisches Wissen, und pädagogisches Inhaltswissen), die während der Reflexionen über die drei Hauptelemente (die Ziele, die Unterrichtsaktivitäten, und die Bewertung) des Unterrichts zum Einsatz kamen. Die Ergebnisse dieser Frage zeigen, dass die Reflexionen der Teilnehmer individuell auf das Klassenmanagement, Disziplin, Lernen, individuelle Unterschiede, die Herausforderungen der Integration der vier Fertigkeiten/Kompetenzen, die Schülermotivation, und das Unterrichtsdesign ausgerichtet waren. Unter Berücksichtigung der theoretischen Hintergründe, die die Teilnehmer während ihrer Reflexion erwähnt haben, wurde weder auf Theorien und Methoden in Englisch als Fremdsprache noch auf Theorien des Zweitspracherwerbs eindeutig Bezug genommen. Diese Forschungsstudie zeigt somit, dass neue Lehrkräfte in Palästina sowohl bei Methoden der Reflexion und Reflexionstheorien als auch bei anderen pädagogischen Inhaltstheorien im Kontext von Englisch als Fremdsprache verstärkt auf Unterstützung angewiesen sind. Die Schlussfolgerung daraus ist, dass einerseits die Wahrnehmung und die Ebenen reflektierender Praxis und andererseits der Inhalt der Reflexion über das fachwissenschaftliche, pädagogische und fremdsprachdidaktische Wissen notwendig sind. 8 547 412 Robustness and variation of low-dimensional signal transmission in topological phases This thesis investigates the variation of signal transmission in topological phases as well as their robustness in one- and two-dimensional systems. For this purpose, multiple approaches in different systems are pursued. First, the possibility of designed modifications at the boundaries is explored in order to change the Fermi velocity at edge states of topological phases. The Fermi velocity as a quantity of the transport behavior describes the speed of signal transmission. The main idea is to hybridize local modes with dispersive edge modes in a controllable way so that the signal speed can be significantly slowed down. In the beginning, the Haldane model is modified. Thereafter, the findings are extended by the spin degree of freedom, yielding to Kane–Mele model with helical edge states. In addition, the robustness of edge states against local disorder is investigated by reconstructing the dispersion of the edge modes in the Haldane model. As a result, certain limits regarding the protection of topological edge states become apparent. Triggered by the results for lattice systems, the central idea is carried over to the integer quantum Hall effect of a free two-dimensional electron gas. The local modes are generated by periodically aligned bays at the boundary of the sample. The Hamiltonian of a free two-dimensional electron gas subjected to a perpendicular magnetic field is approximated by a finely discretized lattice. Hence the dispersion of arbitrary periodic geometries becomes numerically accessible. The application of a gate voltage brings the weakly hybridized edge states into resonance with the Fermi energy. Therefore the Fermi velocity can be varied by up to two orders of magnitude. To extend the research approach, graphene is investigated as another possible implementation due to its special properties and the technical possibility to realize desired geometries. The numerical results indicate that possible applications such as delay lines or interferometers are feasible. The investigation of the topological properties of triplon excitations in BiCu2PO6 reveals new insights into the bulk-boundary correspondence. BiCu2PO6 is described by frustrated quantum spin-1/2 ladders which are weakly coupled to form a two-dimensional lattice. The eigenenergies and eigenmodes of single-triplons are determined by applying deepCUTs and Bogoliubov transformations. The one-triplon dispersions are used to fit the inelastic neutron scattering data by adjusting the coupling constants. Based on that, BiCu2PO6 is shown to be the first disordered quantum antiferromagnet exhibiting a gap and a non-trivial Zak phase. Additionally the topological character of BiCu2PO6 is established by a finite winding number. Despite the bulk-boundary correspondence, no localized edge states can be found due to the absence of an indirect gap. The investigation of the Su–Schrieffer–Heeger model confirms that the disappearance of the indirect gap leads to delocalized in-gap states. In order to further explore the localization of edge states regarding the indirect gap, two-dimensional topological systems such as the Haldane model and the topological checkerboard model are investigated as well. Finally, the investigation of the ferromagnetic Shastry–Sutherland lattices reveals the existence of topological magnon excitations. Using exact spin wave theory, finite Chern numbers of the magnon bands are determined which give rise to chiral edge states. The thermal Hall conductivity as an experimental signature of the topological phase is calculated. Various promising compounds are discussed as possible physical realizations of ferromagnetic Shastry–Sutherland lattices. In dieser Arbeit wird untersucht, wie man die Signalübertragung topologischer Phasen variieren kann, sowie deren Robustheit in ein- und zweidimensionalen Systemen. Zu diesem Zweck werden verschiedene Ansätze in unterschiedlichen Systemen verfolgt. Als erstes wird die Möglichkeit untersucht, mithilfe von gezielten Modifikationen am Rand die Fermi-Geschwindigkeit von topologischen Randzuständen zu reduzieren. Die Fermi-Geschwindigkeit ist eine wichtige Eigenschaft des Transportverhaltens, welche die Geschwindigkeit bei einer Signalübertragung beschreibt. Der grundlegende Gedanke ist es, lokale Zustände kontrollierbar mit den Randzuständen in Wechselwirkung zu bringen, sodass die Geschwindigkeit des Signals maßgeblich reduziert werden kann. Als erstes wird das Haldane-Modell modifiziert. Danach werden die Erkenntnisse um den Spin- Freiheitsgrad erweitert und auf das Kane–Mele-Modell mit den helikalen Randzuständen übertragen. Anschließend wird die Robustheit von Randzuständen in Anwesenheit von lokaler Unordnung im Haldane-Modell untersucht, indem die Dispersion der Randzustände rekonstruiert wird. Die topologischen Randzuständen sind dabei nur bis zu einem gewissen Grad geschützt. Aufgrund der aussichtsreichen Ergebnisse wird die zentrale Idee auf den ganzzahligen Quanten-Hall-Effekt eines freien zweidimensionalen Elektronengases übertragen, um sie einer Realisierung näher zubringen. Dazu wird der Rand mit periodisch angeordneten Buchten modifiziert. Der Hamiltonoperator eines freien geladenen Teilchens im elektromagnetischen Feld wird auf einem fein diskretisierten Gitter approximiert, sodass die Dispersion von beliebig periodischen Geometrien numerisch zugänglich wird. Durch das Anlegen einer Gate-Spannung können die hybridisierten Randzustände in Resonanz mit der Fermi-Energie gebracht werden, sodass die Fermi-Geschwindigkeit um bis zu zwei Größenordnungen variiert werden kann. Aufgrund seiner besonderen Eigenschaften und der technischen Möglichkeit gewünschte Geometrien herzustellen wird zur Erweiterung Graphen untersucht. Die numerischen Ergebnisse zeigen, dass mögliche Anwendungen wie Verzögerungsleitungen oder Interferometer realisierbar sind. Die Untersuchung der topologischen Eigenschaften der Triplon-Anregungen von BiCu2PO6 führt zu neuen Erkenntnissen bezüglich der Bulk-Boundary-Korrespondenz. BiCu2PO6 wird durch frustrierte Spin-1/2-Leitern beschrieben, welche schwach miteinander gekoppelt sind und so ein zweidimensionales Gitter bilden. Durch Anwendung einer deepCUT und einer Bogoliubov-Transformation werden die Kopplungskonstanten bestimmt, indem wir die Dispersion an die Daten der inelastischen Neutronenstreuung anpassen. Darauf basierend wird gezeigt, dass BiCu2PO6 der erste lückenbehaftete, ungeordnete Quantenantiferromagnet mit einer nicht-trivialen Zak-Phase ist. Der topologische Charakter von BiCu2PO6 wird zusätzlich durch eine endliche Windungszahl bestätigt. Trotz der Bulk-Boundary-Korrespondenz konnten keine lokalisierten Zustände vorgefunden werden, was durch die Abwesenheit einer indirekten Lücke begründet wird. Zur Bestätigung dieser Hypothese wird das Su–Schrieffer–Heeger-Modell untersucht, welches zeigt, wie das Verschwinden der indirekten Lücke zu delokalisierten Zuständen innerhalb der Energielücke führt. Um die Anfälligkeit der Lokalisierung von Randzuständen im Bezug auf die indirekte Lücke weiter zu untersuchen, werden zweidimensionale topologische Systeme wie das Haldane-Modell und das topologische Schachbrett-Modell untersucht. 9 113 108 Entwicklung eines Simulationsprogrammes für das Myon-Pretrigger-System des HERA-B-Experimentes und Untersuchungen zum Systemverhalten The HERA-B experiment was built up at the Deutsches Elektronen-Synchrotron (DESY) in Hamburg to study CP violation in the neutral B meson system. For this and other measurements in the field of heavy quark physics an efficient selection of events with final state muons is needed. The muon pretrigger defines starting points for muon track candidates for the higher level trigger systems. Within the scope of this thesis a simulation program is developed that describes the operation of the muon pretrigger system on the bit level. Using this program the efficiency, acceptance and latency of the muon pretrigger system are determined. In addition results of studies on a multiplicity veto system are presented. Das HERA-B Experiment am Deutschen Elektronen-Synchrotron (DESY) in Hamburg wurde aufgebaut, um die CP-Verletzung im System der neutralen B-Mesonen zu untersuchen. Für diese und weitere Messungen zur Physik schwerer Quarks ist es notwendig, Ereignisse mit Myonen im Endzustand effizient zu selektieren. Der Myon-Pretrigger definiert Startpunkte für Myonspuren für die nachfolgenden Triggerstufen. Im Rahmen dieser Arbeit wird ein Simulationsprogramm entwickelt, das die Funktion des Myon-Pretrigger-Systems auf dem Niveau von Bitoperationen beschreibt. Unter Verwendung dieses Programmes werden die Effizienz, Akzeptanz und die Latenzzeit als wichtige Kenngrößen des Myon-Pretrigger-Systems bestimmt. Zudem werden Ergebnisse einer Untersuchung zu einem Multiplizitäts-Veto-System präsentiert. 10 125 112 Policy-based management of medical devices and applications This work presents an extended approach to the autonomous technical management, which combines the innovative model-based management with the established policy-based management technique. A comprehensive model of the managed and the management system is created. Both systems are modeled on three abstraction layers („Use Cases“, „Services“, „Components“). On the basis of the introduced policy derivation patterns (evaluation, control and refinement patterns) and intra-layer associations the policy derivation process is conducted automated by means of a modeling tool. Finally, runnable policies are generated which are enforced by the management at runtime. The approach is applied within the medical application field. It is demonstrated, that the presented technical management supports the development and dependable behavior of medical devices and applications. Die Arbeit präsentiert einen erweiterten Ansatz zum autonomen technischen Management, der das innovative Modell-basierte Management mit dem etablierten Policy-basierten Management kombiniert. Zur Planung des Systems wird ein umfassendes Modell des Management- und des zu verwaltenden Systems entworfen. Beide Systeme werden auf drei Abstraktionsschichten („Use Cases“, „Services“, „Components“) modelliert. Auf Basis der vorgestellten Ableitungsmuster (Evaluierungs-, Kontroll- und Verfeinerungsmuster) und der Zwischenschichtassoziationen wird der Prozess der Ableitung der Management-Policies automatisiert mit Hilfe eines Modellierungstools durchgeführt. Am Ende werden die zur Laufzeit vom Management ausführbaren Policies generiert. Der Ansatz wird im Rahmen des medizinischen Anwendungsfeldes erprobt. Es wird gezeigt, dass der Ansatz die Entwicklung und Verlässlichkeit sowie den Betrieb des medizinischen Geräte- und Anwendungsensembles unterstützt. 11 346 268 The data mining guide to the galaxy Diese Arbeit beschäftigt sich mit der Untersuchung von Aktiven Galaktischen Kernen (AGN) im Bereich der Gamma- und Multiwellenlängenastronomie in Verbindung mit Data-Mining-Anwendungen. Die Erweiterung der AGN-Population ermöglicht eine enorme Verfeinerung unseres Wissens über Objekte, die Gammastrahlung emittieren. Zu diesem Zweck sind die Informationen über die Klassenzugehörigkeit einer katalogisierten Quelle und die entsprechenden Gegenstücke wichtig. Um die AGN-Population möglicherweise zu erweitern, wurden die Multiwellenlängen-Daten einer Liste von AGN-Kandidaten aus dem Fermi-Katalog untersucht, um die Qualität der Vorhersage zu erhöhen. Die Fähigkeit dieser Methode wurde im Rahmen dieser Arbeit nachgewiesen. Dieses Verfahren ist jedoch recht komplex und nutzt Data-Mining-Techniken nicht vollständig aus. Aus diesem Grund wurde ein neuer Ansatz für die Suche nach AGN-Kandidaten im Fermi-Katalog entwickelt und die Eignung des Konzepts nachgewiesen. Diese Methode nutzt Multiwellenlängen-Informationen in Verbindung mit Data-Mining-Methoden, um sowohl die Klassenzugehörigkeit als auch das Gegenstück zu bestimmen. Die Klassifizierungsaufgabe der vorherigen Suche wurde verfeinert, um nach bestimmten Blazaren, einem Subtyp von AGNs und ihren Gegenstücken zu suchen. Trotz der höheren Komplexität konnte die Eignung der Methode erfolgreich nachgewiesen werden. Ein vielversprechender Blazar-Kandidat wurde mit den MAGIC-Teleskopen beobachtet. Die Analyse dieser Beobachtungen führte zur Bestimmung von Fluss-Obergrenzen, die in Zusammenhang mit Beobachtungen in anderen Wellenlängen gesetzt wurden, so dass Rückschlüsse auf die Eigenschaften des Objekts möglich waren. Die MAGIC-Analysekette bietet die Möglichkeit Data-Mining-Techniken zur Rekonstruktion der Energie oder zur Unterscheidung von Gammastrahlung und Hadronen zu nutzen. Der Ansatz, die Energie stereoskopischer Beobachtungen mit diesen Techniken zu rekonstruieren, wurde bisher nicht ausgenutzt und deshalb neu aufgesetzt. Die beiden genannten Anwendungsmöglichkeiten wurden optimiert und evaluiert. Insbesondere die Wahl des Parametersatzes zur Generierung der Modelle erwies sich als äußerst wichtig. 12 367 298 Analysis and applications of variational sensitivity information in structural optimisation This thesis is concerned with the analysis of the internal structure of sensitivities of engineering structures with respect to modifications in shape. The term internal structure of sensitivity is introduced as an abbreviation for the eigenvalues and singular values, the corresponding eigenvalue spectrum and singular value spectrum as well as for the associated eigenvectors and singular vectors of the sensitivity matrix, the pseudo load matrix and the mesh velocity matrix, which build up the central parts of the sensitivity analysis. These matrices are analysed both qualitatively and quantitatively utilising the singular value decomposition (SVD) and techniques which are based on the principle component analysis (PCA). The impact of the chosen models on the computed optimal designs, especially the influence of the chosen shape parametrisation, is analysed. This knowledge enables the design engineer to understand and improve the models systematically whereas they are usually set up entirely by engineering experience and intuition. The weaknesses of the models are detected and improved design descriptions are proposed. This human controlled process is called design exploration. The aim of this thesis is to contribute new substantial capabilities to the corresponding methods. Moreover, an algorithmic and automatic treatment of SVD based sensitivity information is presented within this thesis for different kinds of application. In context of model reduction, the complete design space is reduced to the most valuable subspace of design modifications in order to demonstrate the information content of the decomposed sensitivities. Illustrative examples show that reasonable optimal designs can be obtained with a small percentage of properly defined design variables. In addition, the area of application for SVD based sensitivity information is extended to the nonlinear buckling analysis. Here, decomposition of the pseudo load matrix is utilised to generate the `worst case' imperfections. The generic concept is applied to shape optimisation of shell structures. The design of such structures is extremely important for their stability, robustness and load-bearing capacity. The variational design sensitivity analysis for a nonlinear solid shell is performed and especially the pseudo load matrix and the sensitivity matrix are derived. Within the scope of this thesis, only static nonlinear structural analysis and hyperelastic material behaviour are considered. Die vorliegende Arbeit befasst sich mit der inneren Struktur der Empfindlichkeiten von mechanischen Strukturen bezüglich geometrischer Veränderungen. Der Begriff innere Struktur der Empfindlichkeiten wird als abkürzende Bezeichnung für die Eigenwerte und Singulärwerte, die entsprechenden Eigenwert- und Singulärwertspektren, sowie die zugehörigen Eigenvektoren und singulären Vektoren der Pseudolast-, Sensitivitäts- und Designgeschwindigkeitsmatrizen eingeführt. Zusammen bilden diese Größen den Kern der Sensitivitätsanalyse und werden sowohl qualitativ als auch quantitativ mit Hilfe der Singulärwertzerlegung (SVD) und Techniken, die aus dem Bereich der Hauptkomponentenanalyse (PCA) bekannt sind, analysiert. Beschrieben wird der Einfluss der Modellbildung, insbesondere die Wahl der Formparametrisierung auf die Lösung der Optimierungsaufgabe. Dieses Wissen ermöglicht es dem entwerfenden Ingenieur das Modell zu verstehen und es systematisch zu verbessern, was gewöhnlich nur auf seiner Erfahrung und Intuition basiert. Die Schwächen der Modellbildung werden identifiziert und verbesserte Parametrisierungen des Designraumes vorgeschlagen. Ein solches Vorgehen, das unter anderem die Interaktion zwischen Mensch und Maschine erfordert, wird auch als Designexploration bezeichnet und stellt den Schwerpunkt der vorliegenden Arbeit dar. Des Weiteren wird eine algorithmische und automatische Behandlung der auf SVD basierten Sensitivitätsinformationen für verschiedene Anwendungen vorgestellt. Im Zusammenhang mit der Modellreduktion wird der vollständige Designraum auf einen Unterraum mit der größtmöglichen Varianz projeziert, um den Informationsgehalt der Sensitivitätszerlegungen zu demonstrieren. Beispiele werden zeigen, dass nur ein Bruchteil der neu definierten Designvariablen benötigt wird, um brauchbare Optimierungsergebnisse zu erzielen. Das Anwendungsgebiet der SVD basierten Sensitivitätsinformationen wird auf die nichtlineare Beulanalyse ausgeweitet. Hierbei werden die singulären Vektoren der Pseudolastmatrix mit den `worst case' Imperfektionen in Verbindung gebracht. Die entwickelten Konzepte werden auf die Formoptimierung von Schalentragwerken angewandt. Das Design solcher Strukturen hat einen großen Einfluss auf ihre Stabilität, Robustheit und ihre Versagenslast. Die variationelle Sensitivitätsanalyse einer nichtlinearen Schale wird durchgeführt. Insbesondere werden die Sensitivitäts- und Pseudolastmatrizen hergeleitet. Es werden nur statische Probleme mit hyperelastischem, auch nichtlinearem, Materialverhalten betrachtet. 13 159 173 Testing for Structural Change Testen auf Strukturveränderung 14 103 101 With CAD you construct more slowly than you think Beim CAD geht das Konstruieren langsamer als das Denken 15 111 100 Detektion chlorierter und fluorierter Verbindungen mit Hilfe der Ionenbeweglichkeitsspektrometrie In this thesis the detection of volatile chlorinated and fluorinated compounds using ion mobility spectrometry is described. This technique is characterized by its low detection limits (low ng/L range without preconcentration), short time of analysis (ms-range) and selective detectability of different chemical classes at ambient pressure. For the detection of the substances described, the mobility spectrometers were equipped with radioactive sources (63Ni-IMS) and partial discharges (PD-IMS), and their analytical figures of merit were determined. By coupling the PD ion source to an atmospheric pressure quadrupole mass spectrometer, an insight into the reactions taking place in PD-IMS was provided and the reactant and analyte ions of chlorinated and fluorinated carbons were characterized. In der vorliegenden Dissertation wird die Detektion flüchtiger chlorierter und fluorierter Verbindungen mit Hilfe der Ionenbeweglichkeitsspektrometrie beschrieben. Diese Technik zeichnet sich durch niedrige Detektionsgrenzen (unterer ng/L-Bereich ohne Voranreicherung), kurze Analysenzeiten (ms-Bereich) und selektive Detektierbarkeit unterschiedlicher chemischer Substanzklassen bei Umgebungsdruck aus. Für die Bestimmungen dieser Substanzen wurden die IMS mit radioaktiven Strahlungsquellen (63Ni-IMS) und Teilentladungs-Ionenquellen (TE-IMS) ausgestattet und ihre analytischen Güteziffern ermittelt.Durch Kopplung der TE-Ionisierungsquelle mit einem Atmosphärendruck-Ionisierungs-Quadrupol-Massenspektrometer gelang es, einen Einblick in die im TE-IMS ablaufenden Reaktionen zu geben und die generierten Reaktant- sowie Analyt-Ionen chlorierter und fluorierter Kohlenstoffe zu charakterisieren. 16 73 75 Studies on bilingualism: Contributions of the Dortmund research group Studien zur Mehrsprachigkeit: Beiträge der Dortmunder Arbeitsgruppe Over the last two years researchers of the TU Dortmund University, Department of Language and Communication, have been conducting a number of empirical studies on bilingualism in childhood and adolescence. Special emphasis was placed on bilingualism in the context of speech and language pathology. The overview presented summarizes main research questions and results regarding aspects of the phenomena, trait differences, anamnesis, diagnosis, and intervention. An der TU Dortmund, Fachgebiet Sprache und Kommunikation, wurden in den letzten zwei Jahren eine Reihe von empirischen Studien zum Thema Mehrsprachigkeit in Kindheit und Jugend durchgeführt. Mit dem vorliegenden Beitrag geben wir einen Überblick über die wichtigsten Fragestellungen und Ergebnisse, die (auch) für die sprachtherapeutische Praxis relevant sind. Dabei werden zum einen Aspekte des Phänomens diskutiert und zum anderen konkrete Vorschläge zu Anamnese, Diagnostik und Intervention gemacht. 17 150 116 Requirements and reality of political starting - points in the field of work: the example of teamwork Anspruch und Wirklichkeit von arbeitspolitischen Ansätzen: das Beispiel Gruppenarbeit In times of crisis, lots of companies have developed a double strategy: on the one hand, new political starting-points in the field of work are being propagated and partly tested as well, aiming at activating the motivation and initiative of the staff. At the same time, there is a hard line aiming at a maximum reduction of costs with a minimum of inclusion of staff and their representatives. The introduction of teamwork is a typical example. This double strategy results in a divided company reality side by side: a politics of performance destined for confrontation and a politics of work, which announces participation as a central target. Practice and science have so far ignored this contradicition to a great extent, but coming to terms with its possible consequences seems to be absolutely necessary. Im Zeichen der Krise haben zahlreiche Unternehmen eine Doppelstrategie entwickelt: einerseits werden neue arbeitspolitische Ansätze propagiert und ansatzweise auch erprobt, die auf eine Aktivierung der Motivation und Eigeninitiative der Mitarbeiter zielen. Zugleich wird ein harter leistungspolitischer Kurs gefahren, der auf maximale Kosteneinsparung hinzielt, bei möglichst geringer Einbeziehung der Arbeitnehmer und ihrer Vertreter. Klassisches Beispiel hierfür ist die Einführung von Gruppenarbeit. Ergebnis dieser Doppelstrategie: eine gespaltene betriebliche Realität, in der Unvereinbares stillschweigend nebeneinander praktiziert wird; eine auf Konfrontation angelegte Leistungspolitik und eine Arbeitspolitik, die Partizipation als zentrale Zielstellung verkündet. Praxis wie Wissenschaft haben diesen Widerspruch bislang weitgehend ignoriert. Eine Auseinandersetzung mit dessen möglichen Konsequenzen erscheint aber unbedingt notwendig. 18 138 114 Small and medium-sized enterprises: Carriers of structural change? Large enterprises were counted among the guarantors for potential economic output social well-being up until the 70s, then, in connection with the liberal economic politics at the beginning of the 80s, small and medium-sized enterprises experienced a renaissance as endogenous development potential and carriers of hope for the structural change. With this upward trend of smaller and medium-sized enterprises - thus seems to be the economicpolitical tenor - an increase in the need for qualifications seems to go hand in hand, which makes initiatives for further extended vocational training a necessity. Based on existing empirical results, the following shows assumptions of prosperity and qualifications in small and medium-sized enterprises in a relative light, as well as points towards practical problems for continuing training in and for smaller and medium-sized enterprises. Klein- und Mittelbetriebe: Träger des Strukturwandels? 19 170 124 Ecological innovations by company cooperation and staff participation Ökologische Innovationen durch Unternehmenskooperation und Mitarbeiterbeteiligung 20 437 354 Characterization of microstructure in aluminum alloys based on electron backscatter diffraction During the last decades, aluminum has been established as a common construction material especially in the fields of transportation, aircraft and light weight construction. In order to effect an economic efficiency in material and energy, not only the construction methods are continuously improved but also the material properties are adjusted according to the intended purpose. This includes the development of new alloy compositions and furthermore a controlled microstructure evolution inside the material. A large number of aluminum alloys facilitates a significant increase in strength by precipitation hardening. Through the techniques of grain boundary engineering the material’s grain sizes as well as the type and distribution of the grain boundaries are also controlled to achieve an additional increase in strength. The microstructure evolution is in this work exemplarily investigated for the three technological relevant aluminum wrought alloys EN AW-6060, EN AW-6082 and EN AW-7075 during thermo-mechanical processing by direct hot extrusion. The samples are prepared from partly extruded billets which are cut along the middle axis to reveal the microstructures in different deformation zones and at varying degrees of deformation. Besides the classic light optical microscopy, the electron backscatter diffraction (EBSD) technique is applied for the microstructure analysis. In recent years, EBSD was widely established in the field of materials science and gives direct access to the grain and subgrain structures. Furthermore, it allows the determination of the relative misorientation between individual (sub-)grains and the investigation of the texture at the sample’s surface. The final microstructure is the result of interacting dynamic and/or static evolution processes such as recovery and recrystallization. A detailed investigation of the type and distribution of the grain boundaries in the micrographs allows to identify the active microstructure evolution processes. Based on existing EBSD measurement data sets, the visualization of the grain microstructure and the corresponding grain boundaries is performed by the newly developed and verified inhouse program Grainplot. The main algorithms are explained in detail with a special focus on the restoring of incomplete data sets. The accessible and extensively commented program code then allows a further customization by the user. For the different deformation zones of the partly extruded billet, the microstructural evolution regarding grain and subgrain size distribution, relative grain misorientation and fraction of grain boundaries in the micrograph is determined and statistically evaluated. The texture evolution at the different measurement points is presented in the form of inverse pole figures. Furthermore, the newly developed program Graingen is presented which is used to generate synthetic 2-D and 3-D microstructures with defined statistical properties based on previously analysed EBSD measurement results. Der Werkstoff Aluminium hat sich in den letzten Jahrzehnten als gängiges Konstruktionsmaterial insbesondere im Bereich des Transportwesens, der Luftfahrt und des allgemeinen Leichtbaus bewährt. Um zukünftige Material- und Energieeinsparungen umsetzen zu können, werden neben der optimierten Konstruktion zunehmend die Werkstoffeigenschaften an die benötigten Anforderungen angepasst. Dies umfasst nicht nur die Legierungszusammensetzungen, sondern im zunehmenden Maße auch die gezielte Beeinflussung der Materialmikrostruktur. Bei einer großen Zahl von Aluminiumlegierungen lässt sich die Festigkeit durch Verfahren des Auslagerns signifikant steigern. Im Rahmen des so genannten Grain Boundary Engineerings kann darüber hinaus die Korngrößenverteilung sowie der Verlauf und die Art der vorhandenen Korngrenzen gesteuert werden, wodurch eine weitere Festigkeitszunahme erreicht wird. Die Mikrostrukturentwicklung wird in dieser Arbeit exemplarisch für drei technologisch relevanten Aluminiumknetlegierungen EN AW-6060, EN AW-6082 und EN AW-7075 bei der thermo-mechanischen Umformung durch direktes Strangpressen untersucht. Als Proben dienen dabei teilverpresste Blöcke, die nach dem Trennen längs der Mittelachse die Mikrostrukturen in verschiedenen Umformzonen und bei unterschiedlichen Umformgraden offenlegen. Neben einer lichtmikroskopischen Betrachtung wird zusätzlich das Verfahren der Electron Backscatter Diffraction (EBSD) zur Analyse der Kornmikrostruktur eingesetzt. Diese Technik hat sich im Laufe der letzten Jahre zunehmend etabliert und erlaubt neben der Identifizierung der Korn- und Subkornstruktur auch die Bestimmung der relativenMissorientierung benachbarter Körner und die Untersuchung der Textur. Eine detailierte Betrachtung der Korngrenzentypen und ihrer Verläufe lässt Rückschlüsse auf die wirksamen dynamischen und statischen Entwicklungmechanismen von Erholung und Rekristallisation zu. Im Rahmen dieser Arbeit wurde das Programm Grainplot entwickelt und verifiziert, das ausgehend von vorliegenden EBSD-Messdaten eine Visualisierung der Kornmikrostrukturen und der beteiligten Korngrenzen ermöglicht. Die verwendeten Algorithmen insbesondere der Wiederherstellung unvollständiger Datensätze werden schwerpunktmäßig erläutert. Der einsehbare und ausführlich kommentierte Programmcode erlaubt so eine nachträglich Anpassung an verschiedene Aufgaben durch den Anwender. Unter Verwendung der neuen Software wird die Entwicklung der Mikrostruktur innerhalb der Deformationszonen in Hinblick auf Korn- und Subkorngrößenverteilung, relative Kornmisorientierung und Anteil der Korngrenzen im Gefüge statistisch erfasst und ausgewertet. Darüber hinaus werden die Texturentwicklungen an den Messpunkten als inverse Polfiguren dargestellt. Zudem wird das neu entwickelte Programm Graingen vorgestellt, mit dem – ausgehend von zuvor charakterisierten EBSD-Messergebnissen – künstliche 2-D und 3-D Mikrostrukturen mit definierten statistischen Eigenschaften erstellt werden können. 21 115 102 The increase of reflexivity by organizational advice? Reflexivitätssteigerung durch Organisationsberatung? The implementation of Lean Production in the nineties requires more sociological know-how in industry than in earlier decades. The comprehension of its own political role in the process of rationalization, which has been developed by industrial sociology during the seventies and eighties, is not able to satisfy this requirement. Therefore, industrial sociology not only has to redefine its relationship towards economical principles; it has also to develop an approach research and consulting, which allows a higher degree of sociological intervention into industrial transformation in order to make this process more reflexive. Both is necessary, if industrial sociology wants to get more influence on the process of industrial transformation. Durch die Transformation in Richtung Lean Production ist in der Industrie in den neunziger Jahren ein Bedarf an (industrie-)soziologischem Wissen entstanden, den es in den zurückliegenden Jahren so nicht gegeben hat. Mit ihrem in den siebziger und achtziger Jahren entwickelten rationalisierungs- und arbeitspolitischen Selbstverständnis kann die Industriesoziologie diesen Bedarf jedoch nicht befriedigen. Notwendig ist nicht nur eine Neubestimmung ihres Verhältnisses zum Prinzip der Wirtschaftlichkeit; gefordert ist vor allem ein Forschungs- und Beratungsansatz, der die Reflexivität des Transformationsprozesses durch eine stärkere soziologische Intervention in das betriebliche Geschehen fördert. Beides ist heute überfällig, will die Industriesoziologie auf den Transformationsprozeß Einfluß nehmen. 22 170 154 Homogene Goldkatalyse zur Darstellung neuartiger heterocyclischer Spiroverbindungen In recent years, a variety of new entries to interesting heterocylic compounds has been reported in the field of gold catalysis. On this occasion, it is possible to form new C-O, C-N, C-S or C-C bonds under usually mild reaction conditions. This work generally deals with new gold catalyzed methodologies for the synthesis of heterocyclic spiro compounds. On the one hand, it was possible to develop an entry to spirocyclic pyrazolidines via a multicomponent approach with an alkynol, a hydrazine and a carbonyl compound. In the process, four new bonds are formed with just releasing water as a by-product. Furthermore, this highly atom economic reaction is practicable in aqueous systems. For the first time corresponding DNA-conjugates could be synthesized with this methodology. This discloses a new synthetic tool in the research field of medicinal chemistry for the construction of DNA-encoded compound libraries. Also In further studies gold catalyzed syntheses of spirocyclic isoxazolidines and α,β-unsaturated lactones were carried out. In these cases the aspect should be economic synthesis routes as well. Auf dem Gebiet der Goldkatalyse konnte über die letzten Jahren eine Vielzahl von neuen Zugängen zu interessanten heterocyclischen Verbindungen berichtet werden. Hierbei können neue C-O-, C-N-, C-S- oder C-C-Bindungen in der Regel unter milden Reaktionsbedingungen gebildet werden. Diese Arbeit beschäftigt sich im Allgemeinen mit neuen Gold-katalysierten Methoden zur Darstellung heterocyclischer Spiroverbindungen. Zum einen wurde ein Zugang zu spirocyclischen Pyrazolidinen über eine Mehrkomponentenreaktion mit einem Alkinol, einem Hydrazin und einer Carbonylverbindung entwickelt. Dabei kommt es zu Knüpfung von vier neuen Bindungen, wobei als Koppelprodukt nur Wasser entsteht. Es war zudem möglich, diese hoch atomökonomische Reaktion in wässrigen Systemen durchzuführen. Erstmals konnten auch entsprechende DNA-Konjugate mit dieser Methode dargestellt werden. Dies eröffnet dem Forschungsfeld der Medizinischen Chemie ein neues Werkzeug zum Aufbau DNA-kodierter Substanzbibliotheken. Darüber hinaus wurden in weiteren Studien die Gold-katalysierten Synthesen von spirocyclischen Isoxazolidinen und α,β-ungesättigten Lactonen behandelt. Auch diese sollten den Aspekt einer ökonomischen Syntheseroute beinhalten. 23 806 627 Characterization and model identification for the simulation of the forming behavior of ferritic steels The experimental and theoretical characterization of sheet metal forming continues to present a number of challenges for theorists and experimentalists alike. Among the foremost issues in this regard is a realistic model for the material behavior. The material model should be able to account for the effects of the microstructural development and the development of different types of hardening that evolve due to complex loading path histories involved in sheet metal forming processes. The characterization / identification of the material model needs to be performed for the specific material using the available experiments that produce strain-stress responses for different loading paths. The other issues involved in the characterization of sheet metal forming are the numerical and physical (structural) factors. The current work falls within this context and deals with the formulation of the material model, its characterization and application of this material model to the simulation of sheet metal forming processes. the factors effecting the simulation of metal forming and springback are then discussed. In complex forming processes, sheet metal undergoes large plastic deformations involving significant induced flow anisotropy resulting from the development of persistent oriented (planar) dislocation structures. The first part of this thesis deals with the formulation and identification of a phenomenological model which accounts for the effect of the evolution of this oriented dislocation microstructure on the anisotropic hardening behavior. The model accounts for changes in the size, center, and shape of the yield surface associated with isotropic, kinematic and cross hardening, respectively. Identification of the model for the ferritic sheet metal steel LH800 is carried out with the help of shear, reverse shear, and tension-shear tests. The identified model has been validated by using it to predict the stress-strain behavior of the material along different tension-shear loading paths and comparison with analogous experimental results. The results and, in particular, the comparison of theoretical predictions with experimental results clearly demonstrate the need of including cross hardening effects in the modeling of sheet metals like LH800. Metal forming processes generally involve large strains and severe strain path changes. Large plastic strains in many metals lead to the development of persistent dislocation structures resulting in strong flow anisotropy. Perhaps the most well-known micromechanically-based phenomenological model for anisotropic hardening on (non-proportional) loading paths characterized by directional changes is that of Teodosiu and Hu (1995, 1998). The objective of the third Chapter is to propose a simplified formulation of the modified Teodosiu model presented by Wang et al. (2008). The simplified model and full model are then identified using the available experimental tests for ferritic steel LH800 and IF steel DC06. Finally, the model behavior for the full and simplified models is compared and discussed. The fourth Chapter of the thesis is concerned with the identification of the material model for the steel LH800 using the different sets of tests. The effect of loading path changes during the metal forming processes is modeled by the material model presented in the first Chapter. Now, xiv Summary there is a need for experiments that resemble most of the proportional and non-proportional loading path changes which occur during the real sheet metal forming processes. In the current work we used three types of test data, i.e. cyclic bending test data, tension-compression test data and reverse shear test data along with orthogonal tension shear data to identify the three different sets of material parameters of the presented material model. All three aforementioned tests involve different amounts of inelastic deformation and have different states of stress. Hence, it is instructive to compare the influence of the test data used for identification on the material model parameters. The identified sets of material parameters are then used to simulate a drawbending test and predict the amount of springback. The predicted springback is then compared with the actual experimentally observed springback for each set of material parameters. Accurate simulation of forming and springback in sheet metal forming processes requires taking a number of factors / parameters into account. The factors affecting the simulation of forming and springback fall in two categories: physical and numerical. In the fifth Chapter of this thesis, the attention is focused on the roles played by type, order and scheme of the finite element model and level of mesh refinement, which falls in the category of numerical parameters. For the physical parameters affecting the simulation of forming and springback, the effect of tool radius, friction coefficient, back force (sheet tension) and material model used are investigated. The goal here is an optimal choice of element type, mesh refinement, contact and friction modeling, as well as other numerical and physical parameters in such a way that an efficient, robust and converged solution is achieved in the context of the simulation of sheet metal forming and predicting the springback. Die experimentelle und theoretische Untersuchung der Umformung von Blechen ist nach wie vor eine Herausforderung sowohl in der theoretischen Beschreibung als auch auf experimenteller Seite. Eine wesentliche Aufgabe kommt dabei der Verwendung eines realistischen Materialmodells zu. Das Modell sollte in der Lage sein, die Entwicklung der Mikrostruktur sowie die verschiedenen Formen der Verfestigung, die bei den komplexen Lastpfaden in der Blechumformung auftreten, zu berücksichtigen. Die Charakterisierung / Identifikation des Materialmodells muss für das jeweilige Material, basierend auf den vorliegenden experimentellen Spannung- Dehnung-Ergebnissen für unterschiedliche Beanspruchungsarten durchgeführt werden. Außerdem sind numerische und physikalische (strukturbezogene) Faktoren im Zusammenhang mit der Blechumformung zu betrachten. Diese Arbeit gehört in diesen Zusammenhang und befasst sich mit der Formulierung des Materialmodells, sowie seiner Anwendung bei der Berechnung von Blechumformprozessen. Verschiedene Faktoren, die die Umformsimulation und die Rückfederung beeinflussen, werden untersucht. Bei komplexen Umformprozessen treten große plastische Verformungen und damit verbunden Fließanisotropie auf, die von der Entwicklung bleibender Versetzungsstrukturen verursacht wird. Der erste Teil dieser Arbeit befasst sich mit der Formulierung und Identifizierung eines phänomenologischen Modells, das den Einfluss der orientierten Versetzungsmikrostrukturen auf das anisotrope Verfestigungsverhalten berücksichtigt. Das Modell berücksichtigt die Änderungen der Größe, des Zentrums und der Form der Fließfläche, die mit isotroper-, kinematischer- und Querverfestigung in Verbindung stehen. Die Identifikation des ferritischen Stahls LH800 wird anhand von Scher-, Scher-Rückscher- und Zug-Scher-Tests durchgeführt. Das identifizierte Modell wurde durch Nachrechnen des Spannung-Dehnung-Zusammenhangs für verschiedene Zug-Scher-Lastpfade, zu denen experimentelle Ergebnisse vorlagen, validiert. Die Ergebnisse bzw. der Vergleich der theoretischen Vorhersagen mit den Experimentalergebnissen zeigen, dass Querverfestigungseffekte bei Stählen wie LH800 berücksichtigt werden müssen. Umformungen bei Metall gehen mit großen Dehnungen und ausgeprägten Belastungspfadwechseln einher. Große plastische Dehnungen führen in vielen Metallen zu der Entwicklung von bleibenden Versetzungsstrukturen, was zu starker Fließanisotropie f¨uhrt. Das vielleicht bekannteste mikromechanisch basierte phänomenologische Modell für anisotrope Verfestigung bei nicht-proportionalen Lastpfaden, die durch Richtungswechsel charakterisiert werden, ist das von Teodosiu und Hu (1995, 1998). Im dritten Kapitel wird eine vereinfachte Formulierung eines modifizierten Teodosiu Modells vorgeschlagen. Das vereinfachte Modell und das nicht vereinfachte Modell werden dann anhand der verfügbaren Versuchsergebnisse für den ferritischen Stahl LH800 und den IF-Stahl DC06 identifiziert. Schließlich werden die Modellverhalten des Vollmodells und des vereinfachten Modells miteinander verglichen. Das vierte Kapitel der Arbeit befasst sich mit der Identifizierung des Materialmodells für den Stahl LH800 basierend auf verschiedenen Testdaten. Der Einfluss der Belastungspfad wechsel während des Umformens wird mit dem im ersten Kapitel präsentierten Materialmodell modelliert. Hierfür sind Experimente erforderlich, die den meisten proportionalen und nichtproportionalen Lastpfadwechseln, wie sie in realen Blechumformprozessen auftreten, ähneln. In der vorliegenden Arbeit wurden drei Testarten verwendet, nämlich zyklische Biegeversuche, Zug-Druck-Versuche und Scher-Rückscher-Versuche im Zusammenhang mit orthogonalen Zug-Scher-Versuchen, um drei Parametersätze für das vorgestellte Modell zu bestimmen. Die erwähnten Tests beinhalten unterschiedlich hohe inelastische Deformationen und verschiedene Spannungszustände. Daher ist es sinnvoll, den Einfluss der zugrunde liegenden Versuche auf die Materialparameter zu untersuchen. Die identifizierten Datensätze werden dann für die Simulation eines Streifenzugbiegeversuchs verwendet. Dies beinhaltet auch die rechnerische Vorhersage der Rückfederung. Die berechnete Rückfederung wird für alle Datensätze mit der experimentell ermittelten Rückfederung verglichen. Eine akkurate Berechnung des Tiefziehens und der Rückfederung gelingt nur, wenn man eine Reihe an Faktoren / Parametern berücksichtigt. Diese Einflussfaktoren lassen sich in die Kategorien physikalisch und numerisch einteilen. Das fünfte Kapitel dieser Arbeit befasst sich mit dem Einfluss des Typs, der Ordnung und des Integrationsschemas des verwendeten finiten Elements sowie mit dem Einfluss der Diskretisierung. Dies gehört zu der Kategorie der numerischen Parameter. Im Bereich der physikalischen Parameter, die das Berechnungsergebnis beeinflussen, werden der Radius des Tiefziehwerkzeugs, der Reibkoeffizient, die Haltekraft (Zugkraft im Blech) und das Materialmodell untersucht. Das Ziel dabei ist die optimale Wahl des Elementtyps, des Netzes, der Kontakt- und Reibungsmodellierung und anderer Parameter, sodass eine effiziente, robuste und konvergente Lösung für die Simulation der Blechumformung und der damit verbundenen Rückfederung gefunden werden kann. 24 263 233 Geometrie der Juliamenge und präperiodische kritische Punkte The Julia set of a rational function is defined as the set of all points of the Riemann sphere, in which the sequence of iterates of this function fails to be normal (in the sense of Montel). The dynamics of the iteration sequence as well as topological and geometrical properties of the Julia set are strongly influenced by critical points, where by definition the function is not locally conformal. Several topological assertions on the boundaries of periodic stable domains can be formulated depending on the number of critical points that belong to these domains. The greater the finite number of given critical points that depends on the degree of the function, the harder it is to find general assertions on the Julia set. In this paper we consider rational functions of degree two and above all of degree three, where the number of non-preperiodic critical points, which are important for the global dynamics, is reduced. With the help of a necessary condition for the Julia set to be a Jordan arc, a family of certain functions is constructed, one half of its critical points being preperiodic. An appropriate subset of this familiy can be partitioned into equivalence classes with the help of suitable complete invariants. In the moduli space resulting from this construction regions can be found, where the parameter values lead to rational functions with certain topological and geometrical properties of their Julia sets. The main topic is the property of connectedness, and we discuss, under which assumptions the Julia set is connected, a Jordan curve, a Jordan arc or totaly disconnected. Die Juliamenge einer rationalen Funktion ist definiert als die Menge aller Punkte der Riemannschen Zahlenkugel, in denen die Folge der Iterierten dieser Funktion (im Montelschen Sinne) nicht normal ist. Die Dynamik der Iteriertenfolge sowie die topologischen und geometrischen Eigenschaften der Juliamenge werden entscheidend von kritischen Punkten beeinflusst, in denen definitionsgemäß keine lokale Konformität vorliegt. Topologische Aussagen über Ränder von periodischen Gebieten können je nach Anzahl der durch diese Gebiete gebundenen kritischen Punkte getroffen werden. Je größer die vom Grad der Funktion abhängige endliche Zahl der vorhandenen kritischen Punkte ist, desto schwerer fällt es, allgemeingültige Aussagen über die Juliamenge zu formulieren. In dieser Arbeit werden rationale Funktionen zweiten und vor allen Dingen dritten Grades untersucht, bei denen die Anzahl der für die globale Dynamik entscheidenden kritischen Punkte, das sind gerade die nicht präperiodischen, reduziert ist. Ausgehend von einer notwendigen Bedingung dafür, dass die Juliamenge ein Jordanbogen ist, wird eine Familie gewisser Funktionen konstruiert, bei denen die Hälfte der kritischen Punkte präperiodisch ist. Eine geeignete Teilmenge dieser Familie wird in Äquivalenzklassen eingeteilt, denen vollständige Invarianten zugeordnet werden können. Im durch diese Invarianten definierten Modulraum werden schließlich Bereiche angegeben, deren Parameterwerte auf rationale Funktionen mit bestimmten topologischen und geometrischen Eigenschaften der zugehörigen Juliamengen führen. Das Hauptaugenmerk liegt dabei auf der Zusammenhangseigenschaft und es wird untersucht, unter welchen Bedingungen die Juliamenge zusammenhängend, eine Jordankurve, ein Jordanbogen bzw. total unzusammenhängend ist. 25 114 101 Labour market, employment and income in developing countries referring to economic globalisazion Arbeitsmarkt, Beschäftigung und Einkommen in Entwicklungsländern im Kontext wirtschaftlicher Globalisierung Contrary to the promises of the theory of economic globalization, there has been no world-wide convergence of employment and living standards in recent decades. Social inequality has been rising across and within nation states. Only sub-regions in East and South East Asia enjoyed high economic growth through trade and capital inflows, and were able to reduce poverty and catch up with the industrialized countries. Yet, this came at the expense of increased internal income differentiation. The large majority of developing countries experienced little or no economic improvement. Unemployment, informal and precarious employment, and poverty remained at high levels or have even increased. Entgegen den Verheißungen der Globalisierungstheorie ist es in den vergangenen Jahrzehnten im Weltmaßstab nicht zu einer Angleichung der Beschäftigungs- und Lebensverhältnisse gekommen. Soziale Ungleichheit ist zwischen und innerhalb der Nationalstaaten gewachsen. Lediglich die Regionen in Ost- und Südostasien konnten durch Handel und Kapitalzuflüsse hohes Wirtschaftswachstum erzielen, die Armut reduzieren und gegenüber den Industriestaaten aufholen, allerdings um den Preis verstärkter Einkommensungleichheit innerhalb der Länder. Die große Mehrzahl der Entwicklungsländer konnte sich ökonomisch wenig oder nicht verbessern. Arbeitslosigkeit, informelle und prekäre Beschäftigung, sowie Armut verblieben auf hohem Niveau oder wuchsen teilweise noch an. 26 287 261 Zinkkomplexe mit neutralen N-Donorliganden als Katalysatoren der Ringöffnungspolymerisation von Lactid Polylactide is a biobased and biodegradable plastic which, due to its favourable material properties, posseses the potential to compete against petrochemical-based plastics in many fields of application. Catalysts that are suitable for the production of polylactide under industrial conditions are rare. In the present work zinc complexes with neutral N-donor ligands that combine the necessary robustness towards air and moisture with high polymerisa-tion catalysis are used. By means of the class of guanidine quinoline hybrid ligands the ligand’s basicity was examined, because this feature plays a significant role in the polymerization catalysis. Using experimental and density functional theoretical studies the polymerization mechanism with this catalyst class could be elucidated. The polymerization proceeds via a coordination-insertion mechanism during which the neutral but highly nucleophilic guanidine function induces the ring-opening of the lactide. The influence of the catalyst structure on the stereoselectivity in lactide polymerization was studied by density functional theoretical, mechanistical calculations using the example of aluminium-based complexes and by experimental polymerization studies using the example of tin-based catalysts, with the result, that a high steric demand at suitable positions of the ligand could lead to a high influence on the stereoselectivity. With the objective of increasing the stereoselectivity of the guanidine quinoline catalysts, the ligands were modified by introduction of sterically demanding substituents. The resulting zinc complexes show activity in the lactide polymerization and with bis(chelate)-complexes an enrichment of heterotactic enchainments could be observed in the resulting polymer. Also zinc complexes with further guanidine ligands and other classes of neutral N-donor ligands (oxalic amidines, diamines and triazapentadienes) were successfully applied as catalysts of the lactide polymerization. Thus, the concept of obtaining robust and catalytically active zinc complexes could be confirmed for several classes of neutral N-donor ligands. Polylactid ist ein biobasierter und biologisch abbaubarer Kunststoff, der aufgrund seiner hervorragenden Materialeigenschaften das Potenzial besitzt, auf fossilen Ressourcen basierende Kunststoffe in vielen Anwendungsbereichen zu ersetzen. Katalysatoren, die auch für die Herstellung von Polylactid unter industriellen Bedingungen geeignet sind, sind rar. In der vorliegenden Arbeit werden Zinkkomplexe mit neutralen N-Donorliganden in der Lactidpolymerisation eingesetzt, die die notwendige Robustheit gegenüber Luft und Feuchtig-keit aufweisen und gleichzeitig aktive Katalysatoren darstellen. Anhand der Klasse der Guanidin-Chinolin-Hybridliganden wurde die Basizität der Liganden untersucht, da diese bei der Polymerisationskatalyse eine entscheidende Rolle spielt. Durch experimentelle und dichtefunktionaltheoretische Studien konnte der Polymerisationsmechanismus mit dieser Katalysatorklasse aufgeklärt werden. Die Polymerisation verläuft über einen Koordinations-Insertions-Mechanismus, bei dem die neutrale aber stark nukleophile Guanidinfunktion die Ringöffnung des Lactids induziert. Der Einfluss der Katalysatorstruktur auf die Stereoselektivität in der Lactidpolymerisation wurde durch dichtefunktionaltheoretische, mechanistische Berechnungen am Beispiel von aluminiumbasierten Komplexen und durch experimentelle Polymerisationsstudien anhand von zinnbasierten Katalysatoren untersucht, mit dem Ergebnis, dass ein hoher sterischer Anspruch an geeigneten Positionen der Liganden einen hohen Einfluss auf die Stereoselektivität aufweisen kann. Mit dem Ziel, die Stereoselektivität der Guanidin-Chinolin-Katalysatoren zu erhöhen, wurden die Liganden durch die Einführung sterisch anspruchsvoller Substituenten modifiziert. Die resultierenden Zinkkomplexe zeigen Aktivität in der Lactidpolymerisation und bei Bis(chelat)-Komplexen konnte eine Anreicherung von heterotaktischen Sequenzen in den Polymeren beobachtet werden. Auch Zinkkomplexe mit weiteren Guanidinliganden und anderen Klassen neutraler N-Donorliganden (Oxalamidine, Diamine und Triazapentadiene) wurden erfolgreich als Ka-talysatoren der Lactidpolymerisation eingesetzt. Dadurch konnte das Konzept, mit neutralen Liganden robuste und katalytisch aktive Zinkkomplexe zu erhalten, für mehrere N-Donor-Ligandenklassen bestätigt werden. 27 146 147 Plurality and delimitation in gainful employment, citizen s commitment and in do-it-yourself-work Pluralisierung und Entgrenzung in der Erwerbsarbeit, im Bürgerengagement und in der Eigenarbeit Processes of plurality and delemitation have been accomplished not only in gainful employment, outside of gainful employment in the occupation areas of citizien's commitment and do-it-yourselfwork. In the practice of individuals this change does not reguire an active work structuring, but an individualised meaning formation too: individuals not only have to decide along changing work conditions when and where they do what. They have to decide about the special meaning of their work and to create new meaning patterns. The formation of new meaning patterns is no longer determined by social form of work itsself, but depends on the social area, in which the work will be done, as well as on individual motives, the biographical and social situation etc. It is an empirically open question, in which way the meaning patterns are created. Nicht nur in der Erwerbsarbeit, auch jenseits der Erwerbsarbeit in den Tätigkeitsfeldern des Bürgeren-gagements und in der Eigenarbeit haben sich Prozesse der Pluralisierung und Entgrenzung durchgesetzt. Dieser Wandel verlangt in der Praxis der Individuen nicht nur eine aktive Tätigkeitsgestaltung, sondern auch eine individualisierte Sinnbildung: Individuen können und müssen nicht nur immer wieder entsprechend sich wandelnder Arbeitsbedingungen entscheiden, zu welcher Zeit und an welchem Ort sie welcher Tätigkeit nachgehen, sie müssen auch den jeweiligen Sinngehalt der Tätigkeiten individuell bestimmen und neue Sinnmuster entwerfen. Die Bildung neuer Sinnmuster ist nicht mehr überwiegend durch die Sozialform der Tätigkeiten selbst determiniert, sondern abhängig von dem sozialen Feld, in dem diese Tätigkeiten durchgeführt werden sowie durch individuelle Motive, der biographischen Situation, der sozialen Lage usw. bestimmt. Dabei ist es empirisch eine offene Frage, in welcher Weise derartige Sinnmuster gebildet werden. 28 144 140 Entwicklung eines Prozessmodells der Interpretation technischer Zeichnungen Technical drawings are for the manufacturing industry indispensable to generate, storage and distribution of product data. Because of their analogy figurative form of presentation, it is still not succeeded in the implicit data presented by information capture and processes them. In the present work, a model is developed, which describes the basic principles by which implicitly assembly drawings presented in product data from the explicitly presented data can be derived. The model is based on an object and process analysis, in particular the conceptual confusion and eliminate ambiguities. The verification of the model is based on the Eye-Mind-Hypotheses using an Eye-Tracking examination and a specially developed appraises algorithms. The practical usefulness of the developed process model of subscription inter-pretation is that this is the basis for the formulation of the problem heuristics can serve the perspectives from which to propose drawing information to assess. Technische Zeichnungen sind für die produzierende Industrie unerlässliche Medien zur Generierung, Speicherung und Distribution von Produktdaten. Aufgrund ihrer analog-bildlichen Präsentationsform ist es bis heute nicht gelungen, die implizit präsentierten Daten informationstechnisch erfassen und verarbeiten zu können. In der vorliegenden Arbeit wird ein Modell entwickelt, welches die grundlegenden Prinzipien beschreibt, nach denen implizit in Baugruppenzeichnungen präsentierte Produktdaten aus den explizit präsentierten Daten abgeleitet werden können. Das Modell wird auf der Basis einer Objekt- und einer Prozessanalyse entwickelt, welche insbesondere begriffliche Unklarheiten und Mehrdeutig-keiten eliminieren. Die Verifikation des Modells erfolgt auf der Grundlage der Eye-Mind-Hypothese mittels einer Eye-Tracking-Untersuchung und einem eigens hierfür entwickelten Auswertalgorithmus. Der praktische Nutzen des entwickelten Prozessmodells der Zeichnungsinterpretation besteht darin, dass dieses als Grundlage zur Formulierung von problemspezifischen Heuristiken dienen kann, welche Perspektiven vorschlagen, aus denen die Zeichnungsinformationen zu bewerten sind. 29 252 199 The lack of provision for disturbed children in problematic urban areas in the FRG has been known for years, but largely ignored. There is a general lack of easily accessible psycho-social aids for them, related to familiar and environmental influences everywhere. The results of the PISA-study concerning the correlation between social background, success at school and segregration in the FRG, the current chronification of child problems, the wearisome and often ineffective search by desperate families for appropriate ambulant aids and the increasing pressure of alien placement are all connected to this plight. The famous Bremer model of integration for physically and emotionally disturbed children is falling apart as well. The Bremer Town Musicians have stopped playing for the emotionally disturbed primary schoolchildren in problematic urban areas. Pedagogy is in danger of falling into neglect. Step by step the standards of care have been impaired for years and, with this, the preventive effects reduced; a city-wide, innovative model of cooperation of socially-engaged youth welfare is threatened in the area of further aids. Regional inconsistencies of the last ten years concerning the care of schoolchildren at the expense of discriminated families will be described and discussed here from a partial point of view at community-psychological level. They will be considered against the background of neo-liberal pressure to save money and a general situation of plight amongst children and families in the FRG. The prevalent helpless or intentional ignorance to this problem is cementing the bad situation. Public (professional) discussions are more urgent than ever. Mangelversorgung für psychisch auffällige Schulkinder in sozialen Brennpunkten 30 191 164 Ex-chiral-pool-Synthese des (11R,13S,14R,15R)-Diastereomers von (‒)-Lytophilippin A In 2004, the polyketide (‒)-lytophilippine A, which has an impressive structure and a large number of ste-reogenic carbon atoms (17), was isolated and characterized by Řezanka, Hanuš und Dembitsky from the cnidarian Macrorhynchia philippina. In 2011, Lee et al. reported the first total synthesis of (‒)-lytophilippine A (I) and noticed that the structure or configuration postulated by Řezanka et al. was erroneous by comparing the NMR data. A hint from Hodgson and in-house investigations of the data from Řezanka led to the consideration that the error of the configuration assignment is probably located in the tetrahydrofuran ring region (C11 to C15). For this reason, (11R,13S,14R,15R)-lytophilippine A has been identified as one of the possible diastereomers and was produced through a synthetic strategy that can potentially access all possible diastereomers of the tetrahydrofuran ring region of the natural product. The comparison of the NMR data of (11R,13S,14R,15R)-lytophilippine A with the data of the (‒)-lytophilippine A isolated by Řezanka et al. showed extensive global and solvent independent deviations of the 1H and 13C NMR chemical shifts, indicating a deep-seated and global misallocation of the natural product configuration. Im Jahr 2004 wurde das Polyketid (‒)-Lytophilippin A, welches eine eindrucksvolle Struktur und große Anzahl von stereogenen Kohlenstoffatomen (17) aufweist, durch Řezanka, Hanuš und Dembitsky aus dem Nesseltier Macrorhynchia philippina isoliert und charakterisiert. 2011 veröffentlichten Lee et al. die erste Totalsynthese von (‒)-Lytophilippin A und stellten dabei über den Vergleich der NMR-Daten fest, dass die von Řezanka et al. postulierte Struktur oder Konfiguration fehlerhaft sei. Ein Hinweis von Hodgson und arbeitskreisinterne Untersuchungen der Daten von Řezanka führten zu der Überlegung, dass der Fehler der Konfigurationszuordnung wahrscheinlich im Tetrahydrofuranring-Bereich (C11 bis C15) angesiedelt sei. Aus diesem Grund wurde (11R,13S,14R,15R)-Lytophilippin A als eines der möglichen Diastereomere identifiziert und über eine Synthesestrategie, welche potenziell alle möglichen Diastereomere des Tetrahydrofuranring-Bereichs des Naturstoffs zugänglich machen kann, hergestellt. Der Vergleich der NMR-Daten von (11R,13S,14R,15R)-Lytophilippin A mit den Daten des von Řezanka et al. isolierten (‒)-Lytophilippin A zeigte umfangreiche globale und lösungsmittelunabhängige Abweichungen der 1H- und 13C-NMR chemischen Verschiebungen, was auf eine tiefsitzende und globale Fehlzuordnung der Konfiguration des Naturstoffs hinweist. 31 209 192 In this thesis the flux of high-energy muons in the energy regime from 10 TeV to 1 PeV is reconstructed and analyzed using data collected with the IceCube detector in the time span 13.05.2011 to 15.05.2012. From a data set containing muon bundles only those events are selected which contain a muon that is energetically dominating the others in the bundle. For the separation a Random Forest model is applied, resulting in a data set of high-energy muons with an efficiency of (40,8 +- 0,6) % and a purity of (93,1 +- 0,4) %. Attributes considered in the separation are selected by the mRMR algorithm. The energy spectrum of muons is reconstructed with a regularized unfolding using the software TRUEE. The hypothesis of a prompt and a conventional component of atmospheric muons results in flux normalizations of N(conv.)=(1,03 +- 0,06) und N(prompt)=(1,58 +- 1,57)$. Due to the large uncertainty of the prompt component, the hypothesis of a pure conventional flux cannot be excluded. Using these normalizations, it is possible to determine if the measured high-energy neutrino flux above 60 TeV is of atmospheric origin. The p-value for this hypothesis is found to be 0.045, which indicates the need of an astrophysical component to explain the excess at high energies. Charmante Myonen im Eis 32 396 392 Bulk-robust assignment problems: hardness, approximability and algorithms This thesis studies robust assignment problems with focus on computational complexity. Assignment problems are well-studied combinatorial optimization problems with numerous practical applications, for instance in production planning. Classical approaches to optimization expect the input data for a problem to be given precisely. In contrast, real-life optimization problems are modeled using forecasts resulting in uncertain problem parameters. This fact can be taken into account using the framework of robust optimization. An instance of the classical assignment problem is represented using a bipartite graph accompanied by a cost function. The goal is to find a minimum-cost assignment, i.e., a set of resources (edges or nodes in the graph) defining a maximum matching. Most models for robust assignment problems suggested in the literature capture only uncertainty in the costs, i.e., the task is to find an assignment minimizing the cost in a worst-case scenario. The contribution of this thesis is the introduction and investigation of the Robust Assignment Problem (RAP) which models edge and node failures while the costs are deterministic. A scenario is defined by a set of resources that may fail simultaneously. If a scenario emerges, the corresponding resources are deleted from the graph. RAP seeks to find a set of resources of minimal cost which is robust against all possible incidents, i.e., a set of resources containing an assignment for all scenarios. In production planning for example, lack of materials needed to complete an order can be encoded as an edge failure and production line maintenance corresponds to a node failure. The main findings of this thesis are hardness of approximation and NP-hardness results for both versions of RAP, even in case of single edge (or node) failures. These results are complemented by approximation algorithms matching the theoretical lower bounds asymptotically. Additionally, we study a new related problem concerning k-robust matchings. A perfect matching in a graph is $k$-robust if the graph remains perfectly matchable after the deletion of any k matching edges from the graph. We address the following question: How many edges have to be added to a graph to make a fixed perfect matching k-robust? We show that, in general, this problem is as hard as both aforementioned variants of RAP. From an application point of view, this result implies that robustification of an existent infrastructure is not easier than designing a new one from scratch. Diese Dissertation behandelt robuste Zuordnungsprobleme mit dem Schwerpunkt auf deren komlexitätstheoretischen Eigenschaften. Zuordnungsprobleme sind gut untersuchte kombinatorische Optimierungsprobleme mit vielen praktischen Anwendungen, z. B. in der Produktionsplanung. Klassische Ansätze der Optimierung gehen davon aus, dass die Inputdaten eines Problems exakt gegeben sind, wohingegen Optimierungsprobleme aus der Praxis mit Hilfe von Voraussagen modelliert werden. Daraus folgen unsichere Problemparameter, woran die Robuste Optimierung ansetzt. Die Unsicherheit wird mit Hilfe einer Szenarienmenge modelliert, die alle möglichen Ausprägungen der Problemparameter beschreibt. Eine Instanz des klassischen Zordnungsproblems wird mit Hilfe eines Graphen und einer Kostenfunktion beschrieben. Die Aufgabe besteht darin, eine Zuordnung mit minimalen Kosten zu finden. Eine Zuordnung ist eine Teilmenge an Ressourcen (Kanten oder Knoten des Graphen), die ein kardinalitätsmaximales Matching induziert. In der Literatur sind überwiegend robuste Zuordnungsprobleme untersucht, die Unsicherheit in den Kosten behandeln, in diesem Fall besteht die Aufgabe darin, eine Zuordnung mit minimalen Kosten im Worst-Case-Szenario zu finden. Diese Dissertation dient der Einführung und Untersuchung des Robust Assignment Problem (RAP) welches Kanten- und Knotenausfälle modelliert; wobei die Kosten determinisitsch sind. Ein Szenario ist durch jene Teilmenge an Ressourcen definiert, welche gleichzeitig ausfallen können. Wenn ein Szenario eintritt, werden die jeweils ausfallenden Ressourcen aus dem Graphen entfernt. In RAP besteht das Ziel darin, eine Menge an Ressourcen mit minimalen Kosten zu finden, die robust gegenüber allen möglichen Ereignissen ist, d. h. eine Ressourcenmenge die für alle Szenarien eine gültige Zuordnung enthält. So kann beispielsweise in der Produktionsplanung der Mangel an Materialien, die für einen Auftrag benötigt werden, als Kantenausfall und die wartungsbedingte Abschaltung einer Produktionslinie als Knotenausfall modelliert werden. Die Hauptergebnisse dieser Arbeit sind Nichtapproximierbarkeits- und NP-Schwierigkeitsresultate beider RAP-Versionen, die bereits für die Einschränkung zutreffen, dass nur einzelne Kanten oder Knoten ausfallen können. Diese Ergebnisse werden durch Approximationsalgorithmen ergänzt, die die theoretischen Approximationsschranken asymptotisch erreichen. Zusätzlich wird ein neues, verwandtes Optimierungsproblem untersucht, welches sich mit k-robusten Matchings beschäftigt. Ein perfektes Matching in einem Graphen ist k-robust, wenn der Graph nach dem Löschen von k Matchingkanten weiterhin ein perfektes Matching besitzt. Es wird der Frage nachgegangen, wie viele Kanten zum Graphen hinzugefügt werden müssen, um ein gegebenes Matching k-robust zu machen. Dabei wird gezeigt, dass dieses Problem im Allgemeinen aus komplexitätstheoretischer Sicht genauso schwierig ist, wie die zuvor erwähnten RAP-Varianten. Aus der Anwendungsperspektive bedeutet dieses Resultat, dass die Robustifikation einer bestehender Infrastruktur nicht einfacher ist, als sie von Grund auf neu zu entwerfen. 33 186 150 Bemessungserddruck und Setzungsentwicklung bei integralen Brücken Design earth pressure and development of settlement at integral abutment bridges:The present thesis comprises extensive investigations and presentations of the design earth pressure and the development of settlement at integral bridges. At integral abutment bridge structures, the interaction between the structure and the soil plays an important role, since various constrained loads from the bridge superstructure are rather transferred directly via the abutments to the adjacent backfill. The design approach of the earth pressure for abutment walls by VOGT used in Germany is validated. In addition, a simplified design approach is proposed based on findings from numerical calculations and measurements from a sample project. Besides this thesis contains detailed numerical investigations regarding cyclic earth pressure on abutment walls as well as the settlement behavior of the adjacent backfill using four different material models: Hardening-Soil, hypoplasticity with and without intergranular expansion and neohypoplasticity Some of the insights were already gained within the first year of the sample research project (DFG project number 397521181). The so-called daily cycles which can be traced back to temperature differences between day and night were already well perceived in soil pressure measurements. Die vorliegende Arbeit umfasst umfangreiche Untersuchungen und Darstellungen zum Bemessungserddruck und zur Setzungsentwicklung bei integralen Brücken. Bei integralen Brückenbauwerken spielt die Interaktion zwischen Bauwerk und Baugrund eine bedeutende Rolle, da diverse Zwangsbeanspruchungen aus dem Brückenüberbau direkt über die Widerlager auf die angrenzende Hinterfüllung übertragen werden. Der in Deutschland angewandte Bemessungsansatz des Erddrucks für Widerlagerwände von VOGT wird validiert. Darüber hinaus wird auf Grundlage der eigenen Erkenntnisse aus numerischen Berechnungen und Messungen am Beispielprojekt ein vereinfachter Bemessungsansatz vorschlagen. Außerdem beinhaltet die Arbeit ausführliche numerische Untersuchungen zum zyklischen Erddruck auf Widerlagerwände sowie zum Setzungsverhalten der angrenzenden Hinterfüllung mit vier verschiedenen Stoffmodellen: Hardening-Soil, Hypoplastizität mit und ohne intergranulare Dehnung und Neohypoplastizität. Im Transfer-Forschungsprojekt (DFG-Projektnummer 397521181) konnten innerhalb des ersten Jahres bereits einige Erkenntnisse gewonnen werden. Es lassen sich die sog. Tageszyklen, die auf Temperaturunterschiede zwischen Tag und Nacht zurück zu führen sind, in den Erddruckmessungen gut erkennen. 34 136 100 Analysis of neutrino interactions and search for neutral heavy particles with the front calorimeter of the NOMAD experiment The NOMAD detector at CERN was designed for the appearance search of tau neutrinos in the CERN wide-band neutrino beam, predominantly composed of muon type neutrinos. Neutrino interactions in the front calorimeter (FCAL) of the detector accumulated during the 1996-1998 data taking periods have been analyzed. A search for muon type neutral heavy leptons (NHL) produced by neutral-current muon neutrino interactions in the FCAL target and decaying into final states including a muon has been conducted. No evidence for the existence of such a particle has been found. The results have been parametrized in terms of a Grand Unification Theory (GUT) NHL predicted to behave as a singlet under weak-isospin group of the Standard Model of particle physics. Der NOMAD-Detektor am CERN wurde für die Suche nach Tau-Neutrinos im CERN Breitband-Neutrino-Strahl, der hauptsächlich aus Myon-Neutrinos besteht, konzepiert. Neutrino-Wechselwirkungen im Front-Kalorimeter (FCAL) des Detektors der Datennahme-Perioden 1996-1998 wurden analysiert. Eine Suche nach schweren neutralen Leptonen (NHL) wurde durchgeführt, die in schwachen neutralen Myon-Neutrino Wechselwirkungen im FCAL-Target erzeugt werden und in Endzustände zerfallen, die ein Myon enthalten. Kein Anzeichen für die Existenz eines solchen Teilchen wurden gefunden. Die Ergebnisse wurden im Rahmen einer Theorie der Großen Vereinheitlichung (GUT) parametrisiert, in dem das schwere neutrale Lepton als Singulet unter der Gruppe des schwachen Isospins des Standard Models der Teilchenphysik vorhergesagt wird. 35 151 148 Entwicklung und Erprobung eines Verfahrens zur Bestimmung von Methanol und Ethanol in Außenluft In this work a method is described for the discontinuous determination of methanol and ethanol and for the continuous determination of ethanol in ambient air. A scrubber-coil is used for sampling and enrichment of the analyte from air in an aqueous solution, which is analysed enzymatically. The measurement of methanol and ethanol is based on the use of the enzym alkoholoxidase, the product H2O2 can be detected by fluorimetry. It is further possible to determine ethanol by the enzym alcoholdehydrogenase and the coenzym nicotinamide adenine dinucleotide (NAD+), which can be used as a reagent solution in the scrubber-coil. The detection limit of the systems were found to be 6,03 ppbv for methanol and 21,10 ppbv for ethanol with the enzym alcoholoxidase and 2,38 ppbv for ethanol by using the enzym alcoholdehydrogenase. The applicability of the developed methods were demonstrated during a field campain in São Paulo and Cubatão/Brazil in april/may 1996. In dieser Arbeit werden Methoden zur diskontinuierlichen Bestimmung von Methanol und Ethanol sowie zur kontinuierlichen Bestimmung von Ethanol in Außenluft beschrieben. In einer sogenannten Glas-Wendel wird die Außenluft in einer wässrigen Lösung angereichert und anschließend enzymatisch bestimmt. Methanol und Ethanol werden mit Hilfe des Enzyms Alkoholoxidase oxidiert, das Reaktionsproduktes H2O2 wird fluorimetrisch detektiert. Ethanol konnte zusätzlich mit Hilfe des Enzyms Alkoholdehydrogenase und des Coenzyms Nicotinamid-Adenin-Dinucleotid (NAD+) bestimmt werden, da dieses als Absorberlösung in der Glas-Wendel fungieren kann. Mit den beschriebenen Analysensystemen konnten für die Alkoholoxidase-Reaktion Nachweisgrenzen für Methanol von 6,03 ppbv und für Ethanol von 21,10 ppbv erreicht werden, für die Alkoholdehydrogenase-Reaktion betrug die erzielte Nachweisgrenze für Ethanol 2,38 ppbv. Die entwickelten Probenahmesysteme wurden während einer Meßkampagne im April/Mai 1996 in São Paulo und Cubatão/ Brasilien zur Bestimmung von Methanol und Ethanol in Außenluft eingesetzt. 36 187 145 3-loop contributions to heavy flavor Wilson coefficients of neutral and charged current DIS The present thesis presents the calculation of higher order corrections to the structure functions of deep-inelastic scattering. In particular heavy quark effects in QCD corrections are determined on the 3-loop level. In the asymptotic region Q^2 >> m^2, the heavy flavor Wilson coefficients can be represented in terms of the light flavor Wilson coefficients and the massive operator matrix elements (OMEs). New contributions to the OMEs A_{gq,Q} and A_{gg,Q} are obtained. Furthermore, methods for the computer algebraic computation of ladder diagrams are given, making use of different representations of generalized hypergeometric functions and Appell functions. Here symbolic summation techniques are applied. For the calculation of graphs with two disjoint massive cycles, these methods are altered including Mellin-Barnes integrals and properties of iterated integrals. Finally, for the process of charged current deep-inelastic scattering, the complete 2-loop corrections to the heavy flavor Wilson coefficients are constructed and given in x-space and Mellin-space. The results of the thesis are necessary for the precise determination of the parton densities (PDFs) and the strong coupling constant at 3-loop precision. Die vorliegende Dissertation behandelt die Berechnung höherer Korrekturen zu den Strukturfunktionen der tiefinelastischen Streuung. Insbesondere werden Effekte schwerer Quarks in QCD-Korrekturen auf dem Drei-Schleifen-Niveau bestimmt. In dem asymtotischen Bereich Q^2 >>m^2 ergeben sich die schweren Wilsonkoeffizienten aus den leichten Wilsonkoeffizienten und den massiven Operatormatrixelementen (OMEs). Es werden neue Beiträge zu den OMEs A_{gq,Q} und A_{gg,Q} berechnet. Ferner werden Methoden für die computeralgebraische Berechnung von Leiterdiagrammen angegeben, wobei von Darstellungen generalisierter hypergeometrischer Funktionen und Appell-Funktionen Gebrauch gemacht wird. Hierbei kommen symbolische Summationstechniken zum Einsatz. Für die Berechnung von Graphen mit zwei disjunkten massiven Zyklen werden diese Methoden erweitert um Mellin-Barnes-Integrale und Eigenschaften iterierter Integrale. Schliesslich werden für den Fall der tiefinelastischen Streuung im geladenen Strom die kompletten Zwei-Schleifen-Korrekturen für die schweren Wilsonkoeffizienten konstruiert und im x- und N-Raum angegeben. Die Ergebnisse sind notwendig für eine präzise Bestimmung der Partondichten (PDFs) und der starken Kopplungskonstante zu Drei-Schleifen-Präzision. 37 599 516 Studies on the interaction between the molecular chaperone DnaK and Nucleotide exchange factor GrpE from Thermus thermophilus In the living cell, proteins need molecular chaperones to prevent off pathway folding. The molecular chaperone DnaK from T.thermophilus belongs to the Hsp70 family. Hsp70 proteins are composed of a highly conserved N-terminal part that comprises the ATPase domain and a less conserved C-terminal peptide binding domain. DnaK cycles between an ADP-bound, high affinity state that tightly binds unfolded substrate and ATP-bound, low affinity state that weakly binds unfolded substrate. GrpE serves as a nucleotide exchange factor, facilitating the release of ADP in exchange for ATP. With the assistance of GrpE, DnaK is re-converted from the ADP-state into the ATP-state. The GrpE protein forms dimers in solution and its structure could be divided into three regions: paired N-terminal ?-helices, four helix bundles, and the C-terminal domains. According to the yield of recovery of enzymatic activity mediated by the DnaK-ClpB system we found that urea-denatured Lactate dehydrogenase (LDH) from S.scrofa (pig) muscle and heat-inactivated LDH from B.stearothermophilus could be suitable model substrates for the DnaK-ClpB chaperone system from T.thermophilus. Using the fluorescence correlation spectroscopy technique it was observed that GrpE wild type binds to a DnaK-ADP and DnaK-peptide complex. These results lead us to suggest that GrpE plays a role not only in nucleotide exchange but that it is also involved in stimulation of a substrate release. In this thesis we reported for the first time that GrpE wild type interacts with DnaK in the ATP-bound form. It was also observed for the first time that a covalent link between the ATPase and peptide binding domain of DnaK is likely not important for the interaction between DnaK and GrpE. In this work the contribution of the ?-helical part of GrpE (GrpE(?C)) to interactions with DnaK was defined. Investigations of the interaction between GrpE(?C) and DnaK using Ni-NTA columns and C8-coupled ATP-agarose revealed that the ?-helical part of GrpE binds specifically to DnaK. The specificity is related to the nature of nucleotide bound to the ATPase domain of DnaK. In the presence of ADP GrpE(?C) binds to DnaK while in the presence of ATP the interaction between these proteins was not observed. This finding implies that ATP induces a conformational change in DnaK in such a way to abolish binding of the ?-helical part of GrpE. Therefore it is possible that ATP determines not only the substrate affinity of DnaK but it also regulates binding of the N-terminal ?-helical tail of GrpE. Another explanation of the disruption of GrpE(?C)-DnaK interactions in the presence of ATP is based on two observations obtained using the fluorescence correlation spectroscopy technique: (1) the single ATPase domain and peptide binding domain of DnaK lacking a covalent link are able to interact in the presence of GrpE; (2) GrpE wild type interacts with DnaK in the presence of ATP. These findings imply that the GrpE ?-sheet domain recognises the ATP-bound state of DnaK followed by signal transduction into the peptide binding domain of DnaK via the GrpE long ?-helical tail which stimulates movement of the peptide binding domain away from the GrpE ?-helical part. Using urea-denatured Lactate dehydrogenase from S.scrofa muscle as a model substrate bound to DnaK, we found evidence that the ?-helical part of GrpE competes with the substrate for the DnaK peptide binding domain. It represents a very good framework for defining the mechanism by which GrpE(?C) could possibly stimulate substrate release from DnaK. Based upon all these observations, a mechanism for regulation of the DnaKTth chaperone cycle on the level of the DnaKTth-GrpETth interactions was postulated. In lebenden Zellen benötigen Proteine molekulare Chaperone um Aggregation zu vermeiden. Das molekulare Chaperon DnaK aus T.thermophilus gehört zur Hsp70-Familie. Hsp70-Proteine bestehen aus einer hochkonservierten N-terminalen ATPase-Domäne und einer weniger konservierten C-terminalen Peptidbindungsdomäne. DnaK wechselt zwischen einem ADP-gebundenen hochaffinen Zustand, in welchem ungefaltete Substrate fest gebunden werden und einem ATP-gebundenen niedrigaffinen Zustand, in welchem ungefaltete Substrate schwach gebundenen werden. GrpE dient als Nukleotidaustauschfaktor, indem es die Freisetzung von ADP durch Austausch von ATP ermöglicht. Mit Hilfe von GrpE wird DnaK vom ADP- in den ATP-Zustand zurückgewandelt. Das GrpE-Protein bildet in Lösung Dimere, deren Struktur in drei Regionen eingeteilt werden können: die gepaarten N-terminalen ?-Helices, ein Bündel aus vier Helices und die C-terminalen Domänen. Gemäß der Ausbeute an regenerierter Enzymaktivität durch das DnaK-ClpB-System haben wir herausgefunden, dass Harnstoff-denaturierte Lactatdehydrogenase (LDH) aus S.scrofa (Schwein) Muskel und Hitze-deaktivierte LDH aus B.stearothermophilus die passenden Modellsubstrate für das DnaK-ClpB-Chaperon-System von T.thermophilus sein könnten. Unter Verwendung der Fluoreszenz-Korrelationspektroskopie-Technik wurde beobachtet, dass GrpE-Wildtyp sowohl den DnaK-ADP als auch den DnaK-Peptid-Komplex bindet. Dieses Ergebnis führte uns zu der Annahme, dass GrpE nicht nur eine Rolle im Nukleotidaustausch spielt, sondern auch an der Stimulation der Substratfreisetzung beteiligt ist. In der vorliegenden Arbeit berichten wir zum ersten Mal, dass GrpE-Wildtyp mit DnaK in der ATP-gebundenen Form interagiert. Es wurde auch zum ersten Mal beobachtet, dass eine kovalente Bindung zwischen der ATPase- und Peptidbindungsdomäne von DnaK für die Wechselwirkung zwischen DnaK und GrpE wahrscheinlich nicht notwendig ist. In der vorliegenden Arbeit wurde weiterhin der Einfluss der N-terminalen ?-Helices von GrpE (GrpE(?C)) auf die Wechselwirkung mit DnaK bestimmt. Untersuchungen der Wechselwirkung zwischen GrpE(?C) und DnaK unter Verwendung von Ni-NTA-Säulen und C8-gekoppelter ATP-Agarose haben ergeben, dass der ?-helikale Teil von GrpE spezifisch an DnaK bindet. Diese Spezifität wird durch die Art des an die ATPase-Domäne gebundenen Nukleotids bestimmt. In Anwesenheit von ADP bindet GrpE(?C) an DnaK während diese Wechselwirkung zwischen den Proteinen in der Anwesenheit von ATP nicht beobachtet wurde. Dieses Ergebnis impliziert, dass ATP eine Änderung der Konformation von DnaK bewirkt, indem die Bindung zum ?-helikalen Teil von GrpE gelöst wird. Daher ist es möglich, dass ATP nicht nur die Substrataffinität von DnaK bestimmt, sondern auch die Bindung des N-terminalen Teils an GrpE reguliert. Eine andere Erklärung für die Auflösung der GrpE(?C)-DnaK-Wechselwirkung in Anwesenheit von ATP basiert auf zwei durch die Verwendung der Fluoreszenz-Korrelationspektroskopie-Technik erhaltenen Beabachtungen: 1.) einzelne ATPase-Domänen und Peptidbindungsdomänen von DnaK können trotz fehlender kovalenter Bindung in Anwesenheit von GrpE miteinander wechselwirken; 2.) der GrpE-Wildtyp interagiert in Anwesenheit von ATP mit DnaK. Diese Ergebnisse lassen vermuten, dass die GrpE-?-Faltblattdomäne den ATP-gebundenen Zustand von DnaK erkennt, worauf eine Signalweitergabe an die Peptidbindungsdomäne von DnaK über das lange ?-Helix-Ende von GrpE erfolgt, welches eine Bewegung der Peptidbindungsdomäne weg vom GrpE-?-Helix-Teil stimuliert. Unter Verwendung von Lactatdehydrogenase aus Schweinemuskel als Modellsubstrat für die Bindung an DnaK haben wir Beweise dafür gefunden, dass der ?-helikale Teil von GrpE mit dem Substrat um die DnaK-Peptidbindungsdomäne konkurriert. Dieses bietet einen guten Ausgangspunkt zur Erklärung des Mechanismus, durch welchen GrpE(?C) möglicherweise die Substratfreisetzung von DnaK stimuliert. Basierend auf den erhaltenen Ergebnissen wurde ein Mechanismus für die Regulierung des DnaKTth-Chaperon-Zyklus auf Ebene der DnaKTth-GrpETth-Wechselwirkung postuliert. 38 371 309 Development of a conformation sensitive assay for the detection of inter-domain interactions mediated by allosteric akt inhibitors In addition to the catalytically active kinase domain, many kinases feature regulatory domains that govern their activity. Modulating and interfering with these inter-domain interactions presents a major opportunity for understanding biological systems and developing innovative therapeutics. Therefore, small molecule inhibitors that target these interactions with an allosteric mode of action have great value and higher intrinsic selectivity, as these interactions are often unique for a single kinase or kinase family. Protein Kinase B (PKB, also known as Akt) is such a multi-domain kinase and represents an important target in cancer research. A number of allosteric inhibitors have been reported for Akt over the last years, with one of them currently in clinical phase II trials. Their mode of action requires the presence of a regulatory PH domain as they bind at the PH/kinase domain interface, locking Akt into an inactive conformation. This unique binding site enables an extraordinary high selectivity and therefore low off-target toxicity. However, all known inter-domain inhibitors so far are based on the same scaffold, and the discovery of new chemical entities is hampered by the lack of methods to identify such inhibitors in high-throughput screens. This thesis describes the development of iFLiK (interface-FLiK), a fluorescence-based assay that can monitor such inter-domain interactions. Guided by X-ray crystal structures, the assay was designed to sense the conformational changes of the protein associated with these interactions by attaching an environmentally sensitive fluorophore to a suitable site. In order to establish the assay, a series of probe molecules were synthesised and tested for their inhibitory activity in in vitro and cellular assays. Furthermore, the proteins required for iFLiK were expressed in insect cells and labelled with various fluorophores, systematically assessing their suitability to report on protein conformations. iFLiK could easily distinguish allosteric from classic ATP-competitive inhibitors, thereby providing a proof of principle that solvatochromic fluorophores are capable to monitor protein-protein interactions when attaching the sensor to the correct position. After extensive and careful assay optimisation and validation with orthogonal assay systems, an in-house library was screened with iFLiK. Novel compounds with a scaffold that was previously not described as allosteric Akt inhibitors were identified. Die Aktivität vieler Proteinkinasen wird durch das Zusammenspiel der Kinasedomäne mit zusätzlichen regulatorischen Domänen gesteuert. Daher besitzen niedermolekulare Verbindungen, die solche Interdomänen-Interaktionen allosterisch adressieren und modulieren können, einen großen Wert in der chemischen Biologie und der Pharmaforschung, da diese Interaktionen oft spezifisch für bestimmte Kinasen bzw. Kinasefamilien sind, und somit im Gegensatz zu klassischen ATP-kompetitiven Inhibitoren eine höhere Selektivität versprechen. Die Proteinkinase B (PKB, auch genannt Akt) ist eine solche Multidomänen-Kinase und stellt ein wichtiges Zielprotein in der Krebsforschung dar. Im Hochdurchsatzscreening wurden in den letzten Jahren eine neue Familie von allosterischen Akt Inhibitoren entdeckt, deren Wirkmechanismus die Anwesenheit einer regulatorischen PH Domäne voraussetzt, da sie in einer Bindungstasche an der Grenzfläche zwischen der Kinase- und PH Domäne binden und dadurch Akt in einer inaktiven Konformation arretieren. Diese einzigartige Bindetasche führt zu einer außergewöhnlich hohen Selektivität und somit in vivo potenziell niedrigen Toxizität durch Reduktion unerwünschter Arzneimittelwirkungen. Allerdings basieren alle bisher bekannten Interdomänen-Inhibitoren auf demselben chemischen Grundgerüst, und die Identifizierung von neuartigen Leitstrukturen wird durch den Mangel an geeigneten Hochdurchsatzmethoden ausgebremst. In der vorliegenden Arbeit wird die Entwicklung von iFLiK (interface-FLiK) beschrieben, einem Fluoreszenz-basierten Assay, der solche Interdomänen-Interaktionen detektieren kann. Die für iFLiK benötigten Proteine wurden anhand kristallographischer Informationen konzipiert, in Insektenzellen exprimiert und schließlich mit verschiedenen Fluorophoren gekuppelt, um ihre Eignung als Sensoren für Proteinkonformationen sys-tematisch zu untersuchen. Zur Etablierung des Assays wurden zudem eine Reihe von Sondenmolekülen synthetisiert und auf ihre biologische Aktivität in vitro und in BT474 Zellen untersucht. Mit iFLiK konnten allosterische Inhibitoren von ATP-kompetitiven unterschieden und somit ein Machbarkeitsbeweis erbracht werden, dass solvatochrome Fluorophore zur Detektion von Protein-Protein-Interaktionen geeignet sind, wenn der Fluorophor an der korrekten Stelle angebracht ist. Nach sorgsamer und eingehender Assayoptimierung sowie Validierung mit orthogonalen Assaysystemen wurde eine interne Substanzbibliothek mit iFLiK durchmustert. Dadurch konnten Verbindungen mit einem neuartigen Grundgerüst gefunden werden, die vorher nicht als allosterische Akt Inhibitoren bekannt waren. 39 137 163 Wechselwirkung von Nichtgleichgewichtsplasmen mit kontrollierter Atmosphäre zur effizienten Ionisierung molekularer Analyten The ionization of the analytes is an integral part of mass spectrometry. This work investigates two promising plasma sources regarding their mechanisms to ionize analytes for mass spectrometry. The rst discharge is the dielectric barrier discharge, the second the exible microtube plasma. To investigate the plasma and ionization mechanisms systematically, both discharges were put in a system to operate them under controlled atmospheric conditions. Using these systems, signicant improvements were made regarding the ionisation e ciency and subsequently the possible limits of detection for the used analytes were improved. Deeper insights in the plasma processes for ionization were made possible using the newly developped setups. As a last step, the capability of the controlled atmosphere discharges to use them as ionization source for the detection of biomedically relevant analytes such as potential biomarkers for cancer was proofed. Die Ionisierung von Analyten ist ein wesentlicher Bestandteil der Massenspektrometrie. Die vorliegende Arbeit erforscht im Wesentlichen zwei Plasmaquellen im Hinblick auf die vorliegenden Mechanismen zur Ionisierung von Analyten für die Massenspektrometrie. Dabei handelt es sich zum einen um die dielektrisch behinderte Entladung (DBDI) und zum anderen um die flexible Mikrokapillarentladung (FµTP). Um die Mechanismen systematisch zu untersuchen wurde für beide Entladungen ein experimenteller Aufbau so konstruiert, dass Messungen unter kontrollierten atmosphärischen Bedingungen möglich sind. So konnte die so erzeugte künstliche Atmosphäre für die jeweilige Entladung auf die zu ionisierenden Analyten angepasst werden und Prozesse und Mechanismen besser verstanden werden. Dies führte schließlich zu signifikant verbesserten Nachweisgrenzen für die verwendeten Analyten und schließlich auch zu einem tieferen Verständnis für die ablaufenden Prozesse. In einem letzten Schritt wird in dieser Arbeit gezeigt, dass so auch biomedizinisch relevante Analyten präzise gemessen werden können, welche auch als potenzielle Biomarker für Krankheiten wie Krebs eine Rolle spielen. 40 91 82 Employee ownership: A review of current research on the psychological effects The paper reviews the current empirical research on psychological effects of employee ownership. Empirical findings support the assumption that employee ownership leads to intended productivity enhancing attitudinal and behavioural changes only if it is linked to a significant increase of participation in decision making and the development of individuals´ feelings of (co-)ownership towards the organization ("psychological ownership"). Relationships to the research on organizational / industrial democracy are outlined and the function of employee ownership within post-tayloristic work settings is reflected. Mitarbeiterkapitalbeteiligungen 41 122 148 Synthese und biologische Evaluierung von Inhibitoren der Acyl-Protein-Thioesterase 1 Different covalently lipidated proteins play decisive roles in biological signal transduction. The lipid modifications of the proteins are usually essential for their correct biological function. One class of those proteins, the Ras proteins, are involved in signal transduction processes, that are responsible for controlled cell growth and proliferation. Besides others, one essential lipid modification of Ras proteins is the S-palmitoylation of cysteine residues. Only few is known about the molecular machinery of the palmitoylation process. One enzyme, that is thought to be the first bona fide player in palmityolation / depalmitoylation cycles of Ras proteins is the Acyl-Protein-Thioesterase 1 (APT1). To get a better understanding of the physiological role of the APT1, inhibitors of the enzyme were designed, synthesized and biologically evaluated. In die während der biologischen Signaltransduktion ablaufenden Prozesse sind eine Vielzahl unterschiedlicher Proteine eingebunden, von denen sich einige durch kovalent gebundene Lipidreste auszeichnen. Diese Lipidmodifizierungen sind in den meisten Fällen essenziell für eine korrekte Funktion der betreffenden Proteine. Prominente Vertreter sind die sogenannten Ras-Proteine. Sie sind in Signaltransduktionskaskaden involviert, über die unter anderem das Zellwachstum und die Zellteilung gesteuert werden. Unter den Lipidmodifizierungen, die bei Ras-Proteinen essenziell sind, befindet sich neben anderen die S-Palmitoylierung interner Cysteine. Im Hinblick auf die molekulare Maschinerie und Bedeutung der Palmitoylierung herrscht gegenwärtig Unklarheit. Ein Enzym, das eine regulierende Rolle bei der Palmitoylierung / Depalmitoylierung von Ras-Proteinen spielen könnte, ist die Acyl-Protein-Thioesterase 1 (APT1). Um Aussagen über die physiologische Rolle der APT1 treffen zu können, wurden im Rahmen der vorliegenden Arbeit Inhibitoren des Enzyms konzipiert, synthetisiert und in zellbiologischen Untersuchungen deren biologische Wirksamkeit evaluiert. 42 291 296 Evolution of Quantum Algorithms using Genetic Programming Automatic quantum circuit design is motivated by the difficulties in manual design, because quantum algorithms are highly non-intuitive and practical quantum computer hardware is not yet available. Thus, quantum computers have to be simulated on classical hardware which naturally entails an exponential growth of computational costs and allows only to simulate small quantum systems, i. e., with only few qubits. Huge search spaces render evolutionary approaches nearly unable to achieve breakthrough solutions in the development of new quantum algorithms. Consequently, at present we must be content to evolve essentially already existing (black-box) quantum algorithms. This thesis presents empirical results on the evolution of quantum circuits using genetic programming. For that purpose, a linear and a linear-tree GP system (allowing intermediate measurements) with integrated quantum computer simulator were implemented. Their practicality in evolving quantum circuits is shown in different experiments for 1-SAT (solutions act like Hogg's algorithm) and the Deutsch-Jozsa problem. These experiments confirm that the evolution of quantum circuits is practically feasible only for sufficiently small problem instances. In this context, scalability and the detection of scalability becomes very important. It is shown that scalable quantum circuits are evolvable to a certain degree: a general quantum circuit can be inferred manually from the evolved solutions for small instances of the given problem. Besides, further experiments indicate that 're-evolution' is effective for the evolution of scalable quantum circuits. With this method the start population of a problem instance is inoculated with evolved solutions for a smaller problem instance. Furthermore, investigations of fitness landscapes and selection strategies are made, with the aim of improving the efficiency of evolutionary search. A notable result is that using the crossover operator damages rather than benefits evolution of quantum circuits. Quantenalgorithmen sind hochgradig unintuitiv und einsetzbare Quantenrechner sind (noch) nicht verfügbar. Dies erschwert den manuellen Entwurf von Quantenalgorithmen und motiviert die Suche nach Techniken zum computerunterstützten bzw. automatischen Entwurf. Simulationen von Quantenschaltkreisen (QS) auf konventionellen Rechnern sind aber leider sehr rechenintensiv. Aufgrund der (in der Anzahl der Qubits) exponentiell anwachsenden Kosten ist nur eine Simulation kleiner Quantensysteme (mit wenig Qubits) akzeptabel. Zudem sind die Suchräume quasi beliebig groß,worin wohl auch begründet liegt, warum der evolutionäre Ansatz bislang nicht zu einem Durchbruch in der Entwicklung neuer Quantenalgorithmen führte. Zum gegenwärtigen Zeitpunkt muss man sich daher mit der Evolution bekannter (black-box) Quantenalgorithmen begnügen. Die vorliegende Arbeit präsentiert empirische Ergebnisse zur Evolution von QS mit Hilfe des Genetischen Programmierens. Für die Experimente wurde ein effizienter Quantensimulator entwickelt, der in einem umgebenden GP-System zum Einsatz kommt. Dabei wurden zunächst linear-tree (erlaubt Zwischenmessungen), später auch rein lineare Genom-Strukturen für die Programmrepräsentation verwendet. Die Evolvierbarkeit von QS wird an Hand von Experimenten für kleine Probleminstanzen des 1-SAT Problems und des Deutsch-Jozsa Problems gezeigt. Die Experimente bestätigen, dass die Evolution von QS nur für genügend kleine Probleminstanzen praktisch machbar ist. Vor diesem Hintergrund ist gerade die Skalierbarkeit von QS besonders wichtig. Es wird gezeigt, dass skalierbare QS bis zu einem gewissen Grad evolviert werden können. Dabei wird ein allgemeiner Schaltkreis von den evolvierten Lösungen für sehr kleine Probleminstanzen abgeleitet.Die Methode der 'Vorevolution', so belegen weitere Experimente, ist für die Evolution skalierbarer QS wirksam einsetzbar. Bei dieser Methode werden der Startpopulation einer Probleminstanz bereits evolvierte Lösungen einer kleineren Probleminstanz 'eingeimpft'. Ferner werden Fitnesslandschaften untersucht und ein Vergleich von Selektionsstrategien angestellt, mit dem Ziel, durch diese Erkenntnisse zu einer Effizienzsteigerung der evolutionären Suche zu gelangen. Dabei ist ein beachtenswertes Resultat, dass die Verwendung eines Crossover Operators der Evolution von QS eher schadet, als ihr nützt. 43 299 241 A Unified Distributed DSP-Based Beam Diagnostics and Global Feedback System for Ramped Electron Storage Rings Ein vereinheitlichtes DSP-basiertes System fuer Strahldiagnose und globale Feedbacks an Elektronenspeicherringen 44 369 330 Dual Active Bridge DC/DC-Wandler mit variabler Schaltfrequenz für Anwendungen mit weitem Spannungsbereich This thesis describes the realization of a bidirectional DC/DC converter with a constant output power of 1kW over a voltage range of 20 to 60V on the primary and 200 to 600V on the secondary side. This project is motivated by the energy feed-in tariffs for photovoltaic systems. When the feed-in tariffs expire, it is more economical to use the energy directly than to feed it into the supply network. In this work, a low-voltage energy storage system made of recycled cells on the primary side is used for this purpose. The DC/DC converter enables to retrofit an energy storage system to the existing infrastructure consisting of photovoltaic panels and inverter. Asingle-stage, isolatedDC/DCconverter basedontheDualActiveBridge (DAB) topology is used as the link between the battery storage and the photovoltaic system. Conventional implementations of DAB, however, show high conduction losses at asymmetrical voltage loads on the primary and secondary side. The successful combination of the respective voltage range on the primary and secondary side together with a continuous output power is therefore the novelty of this work. To analyze the loss mechanisms that limit the operation range, the losses are described using a model. A comparison of measurement and simulation proves the validity of the model. The use of a variable switching frequency is technically as well as economically the most attractive option for covering the entire working range efficiently. In comparison to other examined approaches, no additional hardware is required. Likewise, there is no discontinuity in energy transmission behavior, as can occur when a transformer winding is switched. The operation of DAB with variable switching frequency is considered in detail and the ratio of active and reactive power is maximized to increase efficiency. While observing further boundary conditions, such as saturation in magnetic components and peak current values of the semiconductors, a modulation method is derived that enables transmission of 1kW power over the entire operation range. On the basis of the simulation model, possible adjustments to the designed prototype are investigated in order to keep the efficiency of DAB above 95% over the entire working range.Using the proposed modulation method with variable switching frequency, a highly efficient operation of the DC/DC converter over the entire working range is possible. Die vorliegende Arbeit beschreibt dieRealisierung eines bidirektionalenGleichspannungswandlers mit einer konstanten Ausgangsleistung von 1kW über einem Spannungsbereich von 20 bis 60 V auf der Primär- und 200 bis 600 V auf der Sekundärseite. Motiviert wird dieses Vorhaben durch die auf 20 Jahre begrenzte Einspeisevergütung der Energie aus Photovoltaikanlagen.Mit auslaufender Einspeisevergütung ist es wirtschaftlicher die Energie direkt zu verwenden, als sie in das Versorgungsnetz einzuspeisen. Hierfür wird in dieser Arbeit ein Niedervoltenergiespeicher aus wiederaufbereiteten Zellen auf der Primärseite verwendet. Der Gleichspannungswandler ermöglicht nun, den Energiespeicher an die sekundärseitige Infrastruktur aus Photovoltaikanlage und Wechselrichter anzuschließen. Als Bindeglied zwischen Batteriespeicher und Photovoltaikanlage wird ein einstufiger, isolierter Gleichspannungswandler auf Basis der Dual Active Bridge (DAB) Topologie verwendet. Konventionelle Implementierungen der DAB zeigen bei asymmetrischer Spannungsbelastung auf Primär- und Sekundärseite jedoch hohe Leit- und Schaltverluste. Der effiziente Betrieb über den gesamten Spannungsbereich der Primär- und Sekundärseite zusammen mit einer kontinuierlichen Ausgangsleistung stellt daher die Neuheit dieser Arbeit dar. Zur Analyse der Verlustmechanismen, die den Arbeitsbereich beschränken, werden die Verluste anhand eines Modells beschrieben. Ein Vergleich von Messung und Simulation belegt die Gültigkeit desModells. Die Verwendung einer variablen Schaltfrequenz ist die technisch und wirtschaftlich attraktivste Lösung,dengesamten Arbeitsbereich effizient abzudecken. ImVergleich zu anderen untersuchten Ansätzen wird hierbei keine zusätzliche Hardware benötigt. Ebenfalls entsteht keine Unstetigkeit im Übertragungsverhalten der Leistung, wie es durch das Umschalten einer Transformatorwicklung entstehen kann. Der Betrieb der DAB mit variabler Schaltfrequenz wird im Detail betrachtet und zur Effizienzsteigerung das Verhältnis von Wirk- zu Blindleistung maximiert. Unter Einhaltung von weiteren Randbedingungen, wie der Sättigung in magnetischen Bauelementen, sowie Spitzenstromwerten in den Halbleitern wird ein Modulationsverfahren entworfen, dass die Übertragung von 1kW Leistung über dem gesamten Arbeitsbereich ermöglicht. Auf Basis des Simulationsmodells werden mögliche Anpassungen an dem entworfenen Prototypen untersucht, um die Effizienz der DAB über dem gesamten Arbeitsbereich über 95% zu halten. Unter Verwendung des vorgeschlagenen Modulationsverfahrens mit variabler Schaltfrequenz ist ein hoch effizienter Betrieb des Gleichspannungswandlers über dem gesamten Arbeitsbereich möglich. v 45 476 448 Quantitative Analyse des Survival of Motor Neuron(SMN)-Komplexes unter Verwendung von absoluter Quantifizierung SMN-Komplex-spezifischer Peptide durch synthetische stabilisotopenmarkierte Peptidanaloga Summary The SMN complex is a macromolecular protein entity consisting of nine fixed subunits (SMN, Gemin2-Gemin8, Unrip) and several transient factors (SmB/B’, SmE, SmF, SmG, SmD1-D3). The main function of this housekeeping complex comprises the assembly of U snRNPs in the cytoplasm and their export to the nucleus where they build up the spliceosome. As a result of mutations in the SMN1 gene this process can be defective and elicits Spinal Muscular Atrophy (SMA). SMA is the second most common autosomal recessive hereditary disease beside cystic fibrosis resulting in death. It leads to a degeneration of the -motor neurons of the spinal cord and subsequently to muscular weakness and wasting. The aim of this study was the characterization of the human Survival of Motor Neuron (SMN) complex composition and stoichiometry by mass spectrometry. In this context, the native stoichiometric composition of the SMN core complex was compared with two recombinant complexes, each incorporating a known mutation (Y272C, E134K) involved in SMA. For this purpose wildtype SMN and mutated versions thereof were expressed as GST-fusion proteins together with full length Gemin2, Gemin6, Gemin7 and Gemin8 in E.coli. After harvesting and lysis of the cells the SMN complex was enriched on a glutathione-sepharose resin and further prepared by carbamidomethylation and tryptic digestion for a quantitaive massspectrometric analysis. Furthermore, the differences between the cytoplasmic and the nuclear SMN complex both derived from nuclei-cytoplasm separation of HeLa cells by a modified Roeder protocol and subsequent Co-immunoprecipitations against the SMN-specific antibody 7B19 were examined . In order to quantify the SMN core complex absolute quantification (AQUA) was applied. Stableisotope labeled peptide analogs were spiked to the native sample in defined amounts thus introducing a mass difference of 6-10 Da during the massspectrometric analysis. Preliminarily, appropriate peptides that meet several conditions (e.g. no labile amino acids, no missed tryptic digestion sites) to allow for a confident quantification were chosen. As MS-analysis was performed by Selected Reaction Monitoring (S/MRM) on two different triple quadrupol systems, transitions and parameters (Declustering Potential and Collision Energy) for each respective peptide were optimized . Alternatively, label-free quantitation on the LTQ Orbitrap Velos was applied. The high mass accuracy and sensitivity of this hybrid FT MS allows quantifying the respective parent ions directly from the MS1 trace. Both strategies, S/MRM and MS1, provide a linear quantification of peptides down to a concentration of 250 amol. By optimizing the current workflow, it was possible to determine the stoichiometry of SMN-complexes containing several known patient mutations within the SMN1 gene as well as discovering the differences between SMN-complexes originating either from cytoplasm or from nucleus. This project may help to throw a light on the assembly of U snRNPs and provide new targets in diagnosis and therapy for genetic diseases like SMA. Der SMN-Komplex ist eine makromolekulare Einheit, die aus neun festen Untereinheiten (SMN, Gemin2-Gemin8, Unrip) und verschiedenen transienten Faktoren (SmB/B’, SmE, SmF, SmG, SmD1-D3) aufgebaut ist. Die Hauptaufgabe des ubiquitären Komplexes umfasst die Assemblierung der U snRNPs im Cytoplasma und ihre Translokation in den Zellkern, wo sie am Aufbau des Spleißosoms beteiligt sind. Durch Mutation oder Deletion des SMN1-Gens kann dieser Prozess gestört sein und dadurch Spinale Muskelatrophie (SMA) auslösen. SMA ist die zweithäufigste autosomal rezessiv vererbbare Krankheit mit Todesfolge nach Mukoviszidose, die zu einer Degeneration der -Motorneuronen des Rückenmarks und damit zu einer Schwächung und einem Abbau der Muskulatur führt. Das Ziel der vorliegenden Arbeit war die Charakterisierung des humanen Survival of Motor Neuron-Komplex (SMN) hinsichtlich Zusammensetzung und Stöchiometrie mittels Anwendung von massenspektrometrischen Methoden. In diesem Zusammenhang wurde die native stöchiometrische Zusammensetzung des zentralen SMN-Komplexes mit zwei rekombinanten Komplexen verglichen, die beide eine in Verbindung mit SMA bekannte Mutation (Y272C, E134K) integriert hatten. Zu diesem Zweck wurden Wildtyp-SMN und die mutierten SMN-Analoga als GST-Fusions-Proteine zusammen mit Wildtyp-Gemin2, -Gemin6, -Gemin7 und -Gemin8 in Escherichia coli exprimiert. Nach Ernte und Lyse der Zellen wurde SMN auf einer Glutathion- Sepharose-Matrix angereichert und anschließend mittels verschiedener Methoden (Carbamidomethylierung, Trypsin-Verdau) für die massenspektrometrische quantitative Analyse vorbereitet. Des Weiteren wurden die Unterschiede zwischen dem cytoplasmatischen und dem nukleären SMN-Komplex, welche durch Zellkern-Cytoplasma-Trennung von HeLa-Zellen mittels eines modifizierten Roeder-Protokolls und anschließende Co-Immunopräzipitation gegen den SMNspezifischen Antikörper 7B10 erhalten wurden, untersucht. Für die Quantifizierung der SMN-Komplexe wurde Absolute Quantifizierung (AQUA) angewendet. Synthetische stabilisotopenmarkierte Petidanaloga wurden mit den nativen Proben in definierten Konzentrationen verdünnt und konnten während der massenspektrometrischen Analyse durch ihre Massendifferenz von 6 bis 10 Dalton im Vergleich zu den endogenen Peptiden detektiert werden. Zuvor mussten jedoch geeignete Peptidsequenzen ausgewählt werden, um eine reproduzierbare Quantifizierung zu gewährleisten. Dazu mussten die Peptide definierten Spezifikationen entsprechen (z.B. keine leicht modifizierbaren Aminosäuren oder keine überlesenen tryptischen Schnittstellen beinhalten). Die MS-Analyse wurde mittels Selected Reaction Monitoring (S/MRM) auf zwei unterschiedlichen Triple-Quadrupol-Systemen durchgeführt. Zu diesem Zweck wurden die Übergänge und Systemparameter (Declustering Potential und Kollisionsenergie) für jedes einzelne Peptid optimiert und festgelegt. Alternativ wurde markierungsfreie Quantifizierung auf einem LTQ Obitrap Velos System angewandt. Die hohe Massengenauigkeit und Sensitivität des Hybrid-FT-MS-Systems erlaubt eine Quantifizierung der entsprechenden Mutterionen direkt aus der MS1-Spur (ohne Anwendung von Tandem-MS-Experimenten). Beide Strategien, S/MRM und MS1, erlauben eine Quantifizierung von Peptiden mit Konzentrationen bis 250 amol. Durch Optimierung des dargestellten Protokolls, war es möglich den Einfluss bekannter Patientenmutationen des SMN1-Gens auf die Stöchiometrie des SMNKomplexes zu untersuchen, sowie den Unterschied zwischen SMN-Komplexen des Cytoplasmas und des Zellkerns zu bestimmen. Dieses Projekt kann dazu beitragen sowohl die Assemblierung der U snRNPs besser zu verstehen, als auch neue Zielmoleküle für Diagnose und Therapie von genetischen Krankheiten wie SMA bereitzustellen. 46 193 172 Analyse und Optimierung der mechanischen Eigenschaften von Kunststoffverpackungen für den Transport von Getränken Plastic packaging is increasingly becoming the focus of a public debate. A minimum consensus is that packaging waste can be avoided by minimising the use of materials for plastic packaging. Especially for heavy but flexible structures, such as beverages in lightweight PET-bottles, the stability during transportation has become a challenging requirement all over the world. This thesis contributes to the optimization of lightweight packaging concepts regarding their stability. In the first part of this thesis, experimental methods are developed that facilitate the comparison and the evaluation of packaging materials and packaging structures with regard to their mechanical properties during truck transportation. In addition to the stretch wrapping process, both the transport conditions in the truck and their effect on beverage pallets are analysed in field tests. A time-lapse test method for the mechanical characterisation of pallets in the laboratory is developed and applied. In the second part of this thesis numerical methods are developed, including a numerical model of the stretch wrapping process and a finite element (FE) model of the entire pallet. The success of the Finite-Element (FE)-supported optimization validates the numerical model of the pallet and thus the underlying numerical methods. Kunststoffverpackungen rücken zunehmend in den Fokus öffentlicher Diskussionen. Ein Minimalkonsens besteht darin, dass Verpackungsmüll durch die Minimierung des Materialeinsatzes für Kunststoffverpackungen vermieden werden muss. Gerade bei schweren, aber flexiblen Strukturen, wie Getränken in leichten PET-Flaschen, ist auch die Stabilität beim Transport weltweit eine anspruchsvolle Herausforderung. Diese Arbeit trägt zur Optimierung der Leichtbauweise von Verpackungskonzepten hinsichtlich ihrer Stabilität bei. Im ersten Teil dieser Arbeit werden experimentelle Methoden entwickelt, die den Vergleich und die Bewertung von Verpackungsmaterialien und Verpackungsstrukturen in Bezug auf deren mechanische Eigenschaften während des LKW-Transportes erleichtern. Neben dem Streck-Wickelprozess werden auch die Transportbedingungen im LKW sowie deren Wirkung auf Getränkepaletten in Feldversuchen analysiert. Eine zeitraffende Prüfmethode für die mechanische Charakterisierung von Paletten im Labor wird entwickelt und angewendet. Im zweiten Teil dieser Arbeit entstehen numerische Methoden, darunter ein numerisches Modell des Streck-Wickelprozesses und ein Finite Elemente (FE)-Modell der gesamten Palette. Der Erfolg der FE-gestützten Optimierung validiert das numerische Modell der Palette und damit auch die zugrundeliegenden numerischen Methoden. 47 416 337 Mechanismen der reversiblen enzymatischen Adenylylierung von Rab‐Proteinen Including more than 60 members in humans, Rab proteins constitute the largest subfamily of the Raslike superfamily of small GTPases which act as molecular switches and can exist in a GDP‐bound (inactive) and a GTP‐bound (active) conformation. The conversion between these states is carried out by regulatory factors: GTPase activating proteins (GAPs) stimulate GTP hydrolysis and guanine nucleotide exchange factors (GEFs) catalyze the GDP‐GTP exchange. Rab proteins interact with effector proteins only in the active state, thereby regulating vesicular trafficking in eukaryotic cells. For this purpose, the activity and the intracellular localization of Rab proteins need to be tightly regulated. In order to ensure their own survival, some intracellular pathogens have developed intriguing strategies for manipulation of intracellular vesicular transport processes and in particular of the Rab proteins involved. A prominent example of an intracellular pathogen that manipulates Rab proteins for its own benefit is Legionella pneumophila. In particular, the Legionella protein DrrA (defect in Rab recruitment A) was identified in the recent past as a protein that manipulates the intracellular localization and activity of Rab1. At the beginning of this work, structural studies on this protein showed the presence of an additional, previously uncharacterized domain possessing adenylyltransferase activity towards Rab1. The characterization of this enzymatic activity was the central subject of this work. Within this work, the x‐ray crystal structure of adenylylated Rab1 was solved. This structure showed that Rab1 was specifically modified on a tyrosine residue in the functionally important switch II region. Further studies of the effects of this modification showed that the interaction of Rab1‐AMP with GAPs and the human effector Mical‐3 are drastically inhibited, whereas the interaction with the GEF domain of the Legionella protein DrrA and the Legionella effector protein LidA are not significantly inhibited. Characterisation of the enzyme kinetics of DrrA and the recently identified deadenylylating enzyme SidD showed that Rab1:GTP is the preferred substrate of adenylylation by DrrA while SidD possesses a significantly lower substrate specificity towards the active or inactive conformation of Rab1. This work includes the first description and characterization of adenylylation as a posttranslational modification of Rab proteins. In the context of the current literature, the results of this work allowed the proposal of a model in which adenylylation temporarily inhibits deactivation of Rab1 by GAPs and thus the extraction of Rab1 from the Legionella containing vacuolar (LCV) membrane by GDI and Rab1 is entrapped at the LCV membrane. At a later stage of infection, deadenylylation by SidD allows for deactivation and extraction by GDI. Rab‐Proteine bilden mit mehr als 60 Mitgliedern im Menschen die größte Unterfamilie der Superfamilie Ras‐ähnlicher kleiner GTPasen, welche als molekulare Schalter in einer GDP‐gebundenen (inaktiven) und einer GTP‐gebundenen (aktiven) Konformation vorliegen können. Die Konversion der Aktivitätszustände erfolgt durch regulatorische Faktoren: GTPase aktivierende Proteine (GAPs) stimulieren die GTPHydrolyse und Guaninnukleotidaustauschfaktoren (GEFs) katalysieren den GDP‐GTP‐Austausch. In der aktiven Konformation interagieren Rab‐Proteine mit Effektorproteinen und regulieren den vesikulären Transport in eukaryotischen Zellen. Um vesikuläre Transportwege zum eigenen Vorteil zu nutzen haben einige intrazellulär lebende Pathogene erstaunliche Methoden zur Manipulation von Rab‐Proteinen entwickelt. Ein prominentes Beispiel eines solchen Pathogens ist Legionella pneumophila und insbesondere das Legionellenprotein DrrA (engl.: defect in Rab recruitment A), welches die intrazelluläre Lokalisation und den Aktivitätszustand von Rab1 manipuliert. Strukturelle Untersuchungen vor Beginn dieser Arbeit offenbarten eine weitere funktionelle Domäne von DrrA, welche Adenylyltransferase‐ Aktivität gegenüber Rab1 besitzt. Die Charakterisierung dieser Aktivität war zentrales Thema dieser Arbeit. Die innerhalb dieser Arbeit bestimmte Röntgenkristallstruktur des adenylylierten Rab1 zeigte, das Rab1 spezifisch an einem Tyrosin im Bereich des funktionell wichtigen switch II modifiziert wird. Weiterführende Untersuchungen offenbarten starke inhibitorische Effekte der kovalenten Modifizierung auf die Interaktion von Rab1 mit GAPs und dem humanen Effektorprotein Mical‐3, wohingegen die Interaktionen mit der GEF‐Domäne von DrrA und dem Legionellen Effektorprotein LidA nicht signifikant gestört sind. Enzymkinetische Untersuchungen von DrrA und dem kürzlich identifizierten deadenylylierenden Enzym SidD zeigten, dass die aktive Konformation von Rab1 das bevorzugte Substrat der Adenylylierung durch DrrA ist, wohingegen SidD beide Aktivitätszustände von Rab1 gleichermaßen als Substrat akzeptiert. Diese Arbeit umfasst die erste Beschreibung und Charakterisierung der Adenylylierung als posttranslationale Modifikation eines Rab‐Proteins. Im Kontext der aktuellen Literatur erlaubten die Ergebnisse dieser Arbeit die Erstellung eines Modells, in dem eine Deaktivierung von Rab1 durch GAPs und somit eine Extraktion von der Membran der Legionellen enthaltenden Vakuole (LCV) durch GDI temporär durch die kovalente Modifikation unterbunden wird und Rab1 an der LCV‐Membran arretiert wird. Erst durch das deadenylylierende Enzym SidD wird zu einem späteren Zeitpunkt der Infektion eine Deaktivierung und Extraktion wieder ermöglicht. 48 86 110 Siemens AG: Adaption or Transformation? Die Siemens-AG: Inkrementale Anpassung oder Unternehmenstransformation? Eine Fallstudie über Kontiunität und Wandel eines Konzerns The following article analyzes the company's reactions in adapting on a strategie as well as operational level. The author examines especially the TOP-movement, which was initiated in 1992/93 by the central managing directors (executive board). As examples for adequate processes "Public Network" (ÖN), "Private Network" (PN) and "Siemens Nixdorf information systems" (SNI) are presented. This article presents interim results of complex transformation processes due to the selectivity of the chosen examples, time restrictions (1992/93 to summer 1995) and restricted evaluation material. Die nachfolgende Fallstudie analysiert die Anpassungsreaktionen des Unternehmens auf strategischer wie operativer Ebene. Untersucht werden insbesondere die TOP-Bewegung, 1992/93 initiiert durch den Zentralvorstand (ZV), und entsprechende Umstrukturierungsprozesse in den drei Unternehmensbereichen (UB)1 Öffentliche Netze (ÖN), Private Netze (PN) und Siemens Nixdorf Informationssysteme AG (SNI). Zu fragen ist, wie weit das Unternehmen über inkrementalistische Anpassungsreaktionen hinaus transformatorische Umstrukturierungsprozesse initiieren und kontinuisieren konnte. Angesichts des teilweise nur begrenzt auswertbaren Materials, der Selektivität der ausgewählten Bereiche und des zeitlich begrenzten Beobachtungsraumes seit 1992/93 bis Mitte 1995 können die nachfolgenden Ausführungen natürlich nur eine exemplarische Zwischenbilanz eines komplexen Wandlungsprozesses darstellen. 49 129 103 A probabilistic model for discretionary lane change proposals in highway driving situations Ein probabilistisches Modell für diskretionäre Spurwechselvorschläge in Autobahnszenarien This contribution presents a novel probabilistic approach for the generation of discretionary lane change proposals with a focus on highway driving situations. The developed model is based on the quantification of the utility of driving lanes. It generates a lane change proposal if the current driving lane is unsatisfactory in the sense that the desired velocity of the automated vehicle is undershot because of a slow preceding vehicle. A driving simulator study was conducted to create a dataset for the optimization of the model parameters. The optimization goal is to accurately match the timings of the lane change intentions of all participants. Finally, the applicability of the model is shown on real data from a test vehicle. In diesem Beitrag wird ein neuartiger probabilistischer Ansatz zur Generierung von diskretionären Spurwechselvorschlägen mit dem Fokus auf Autobahnfahrsituationen vorgestellt. Das entwickelte Modell basiert auf der Quantifizierung der Nützlichkeit von Fahrspuren. Es generiert einen Spurwechselvorschlag, wenn die aktuelle Fahrspur in dem Sinne unbefriedigend ist, dass die gewünschte Geschwindigkeit des automatisierten Fahrzeugs aufgrund eines langsamen vorausfahrenden Fahrzeugs unterschritten wird. Eine Fahrsimulatorstudie wurde durchgeführt, um einen Datensatz für die Optimierung der Modellparameter zu erstellen. Das Optimierungsziel ist die genaue Übereinstimmung der Zeitpunkte der Spurwechselabsichten aller Teilnehmer. Schließlich wird die Anwendbarkeit des Modells auf realen Daten eines Testfahrzeugs gezeigt. 50 227 179 Lohnarbeit This contribution deals with the notion of wage labour in a fundamental perspective. Both the current theoretical debate as well as new empirical findings about the development of wage labour are summed up. The starting point of the reasoning is a short outline of the different forms as well as of the historical development of wage labour, which initially mainly was industrial work. The contribution then enters into the question how the fundamental coordination problems of work - the transformation and opportunism problem - are managed in the context of a power asymmetrical employment relation between labour and capital. And, how the achievement motivation of the employees can be secured under these circumstances. The thesis is proposed that the interaction of the company level - with its decision, negotiation and organisation processes - with the given labour market structures is of special significance for the regulation of the relations between wage labour and capital and the design of employment relations. To analyse these interrelationships, the author resort to newer concepts of company employment systems for one thing and to considerations from the segmentation theory approach to labour market research for another thing. In conclusion, the increased flexibility of hitherto standardised forms of regulating the employment relations and the decreasing importance of so-called normal employment relationships are identified as specific characteristics of new development trends of wage labour. Der vorliegende Beitrag befasst sich in grundlegender Perspektive mit dem Begriff der Lohnarbeit. Resümiert werden sowohl die gegenwärtige theoretische Debatte wie neuere empirische Befunde über die Entwicklung von Lohnarbeit. Ausgangspunkt der Argumentation ist eine knappe Skizze der verschiedenen Formen und der historischen Entwicklung von Lohnarbeit, die zunächst hauptsächlich Industriearbeit war. Davon ausgehend wird die Frage behandelt, wie die grundlegenden Koordinationsprobleme von Arbeit, das Transformations- und Opportunismusproblem im Rahmen einer machtasymmetrischen Beschäftigungsbeziehung zwischen Kapital und Arbeit bewältigt werden und wie eine möglichst dauerhafte Leistungsbereitschaft der abhängig Beschäftigt gesichert wird. These ist, dass für die Regelung der Beziehungen zwischen Kapital und Lohnarbeit und die Ausgestaltung des Beschäftigungsverhältnisses das Zusammenspiel der betrieblichen Ebene und die hier vorfindbaren Entscheidungs-, Verhandlungs- und Gestaltungsprozessen mit den je gegebenen Arbeitsmarktstrukturen von besonderer Bedeutung ist. Für die Analyse dieser Zusam-menhänge wird zum einen auf das neuere Konzept der Betrieblichen Beschäftigungssysteme, zum anderen auf Überlegungen aus der segmentationstheoretischen Arbeitsmarktforschung zurückgegriffen. Als besondere Merkmale neuerer Entwicklungstendenzen von Lohnarbeit werden abschließend vor allem die Flexibilisierung der bisherigen standardisierten Regelungsformen der Beschäftigungsverhältnisse und eine abnehmende Bedeutung des sogenannten Normalarbeitsverhältnisses herausgearbeitet. 51 150 137 Untersuchungen zur elektronischen und atomaren Struktur von SiC-Oberflächen Scope of this thesis is the investigation of the structure of Si-terminated silicon carbide surfaces. Different electron spectroscopic methods are used, especially angle-resolved direct and inverse photoemission. High-resolution photoemission measurements of the (2X1)- and c(4X2)-reconstructions of the 3C-SiC(001)-surface were performed at the MAX-Lab synchrotron radiation facility in Sweden. The results of both surfaces are compared to ab initio calculations of the bandstructure and are discussed in relation to the proposed models. The presented investigations of the (Sqrt 3 X Sqrt 3)-R30°- and (3 X 3)-reconstructions of the 6H-SiC(0001) surface give for the first time simultaneous information about the occupied and also about the unoccupied bandstructure. The surface electronic structure of both reconstructions is semiconducting, contrary to earlier theoretical predictions. However, the semiconducting character and the measured bandgap is in good agreement with recent theoretical results, where many-body electron-electron correlation effects are taken into account, leading to a Mott-Hubbard ground state. In der vorliegenden Arbeit wird eine Untersuchung zur Struktur Si-terminierter Siliziumkarbid-Oberflächen vorgestellt. Zum Einsatz kamen dabei verschiedene elektronenspektroskopische Methoden, insbesondere die winkelaufgelöste direkte und die inverse Photoemission. Am Synchrotronstrahlungslabor MAX-Lab in Schweden sind Messungen mit hoher Energie-auflösung an den (2X1)- und c(4X2)-Rekonstruktionen der 3C-SiC(001)-Oberfläche durchgeführt worden. Die Ergebnisse an beiden Oberflächen werden mit theoretischen ab initio Berechnungen der Bandstruktur verglichen und die vorhandenen Modellvorschläge diskutiert. Die gezeigten Untersuchungen an den (Sqrt 3 X Sqrt 3)-R30°- und (3 X 3)-rekonstruierten (0001)-Oberflächen des Polytyps 6H-SiC geben erstmalig Informationen sowohl über die besetzten als auch die unbesetzten Elektronenzustände dieser Oberflächen. Beide Rekonstruktionen sind im Gegensatz zu früheren theoretischen Arbeiten halbleitend. Erst unter Berücksichtigung neuerer Berechnungen, die auf einer Viel-Teilchen-Theorie im Mott-Hubbard-Modell basieren, kann eine gute Übereinstimmung zwischen Experiment und Theorie erzielt werden. 52 142 144 Age effects of innovation activities of workers Alterstrends der Innovationstätigkeit bei Erwerbstätigen Two developments in working life, namely the shift from classical price competition to competition based on innovation and the change of the age-structure of employees caused by the demographic evolution are explained shortly. The development of innovation abilities during working life will be founded as an important task. This study describes age correlations of innovation demands of employees. In two field studies the number of self realized innovations and the number of contributions to innovation were registered. This was carried out with a non random sample of employees and of innovators. Zero correlations between innovation and age exist in all studies. Clear differences in the innovation activities occur between qualification groups of employees. But correlations exist between characteristics of job task and innovation. Higher learning demands in job tasks are connected with more innovation activities. Zwei Entwicklungstrends in der Erwerbsarbeit, nämlich die Verlagerung des klassischen Kostenwettbewerbs zum Wettbewerb um innovative Produkte und die Veränderung der Altersstruktur der Erwerbsbevölkerung aufgrund der demographischen Entwicklung werden kurz erläutert und genutzt, um die Entwicklung der Leistungs- und Innovationsfähigkeit Erwerbstätiger über die Spanne des erwerbsfähigen Alters als Zukunftsaufgabe zu kennzeichnen. In diesem Beitrag werden Alterstrends des Erlebens von Innovationsanforderungen durch Erwerbstätige analysiert sowie Befunde empirischer Studien über die Innovationstätigkeit Erwerbstätiger vorgestellt. Mit zwei Indikatoren Hauptakteur bei realisierten Produkt- und Prozessinnovationen im letzten Kalenderjahr und Beteiligung an realisierten Produkt- und Prozessinnovationen im letzten Kalenderjahr werden für eine Gelegenheitsstichprobe Erwerbstätiger und für eine Stichprobe von Innovatoren Alterstrends der Innovationstätigkeit beschrieben. In beiden Studien wird keine Altersabhängigkeit der Innovationstätigkeit festgestellt. Aber es besteht ein Zusammenhang der Innovationstätigkeit mit der Lernhaltigkeit der Arbeitsaufgabe. Erwerbstätige, die Arbeitsaufgaben mit höheren Lernanforderungen bearbeiten, sind häufiger Innovator. 53 199 156 Employment of older workers in Europe between early retirement and the "work-line" Die Beschäftigung Älterer in Europa zwischen Vorruhestand und "Work-Line" The European Union has set itself ambitious targets for the employment of older workers. In March 2001, the European Council, meeting in Stockholm, declared that by 2010 at least half of the EU population aged between 55 and 64 should be in employment. The present article examines the participation of older employees in the labour market on the basis of the 2004 European Labour Force Survey. At present, only 5 of the 15 old member states already have an employment rate in excess of 50% among the 55 to 64 age group. Countries that have implemented the so-called "work line" policy (Denmark and Sweden), which seeks to mobilise all individuals of working age, exhibit clearly higher employment rates than countries with highly developed early retirement policies (Germany and France). The comparison between the "work-line" countries and "early retirement" countries reveals the existence of six sets of problems (equality problem, work humanisation problem, qualification problem, flexibility problem, motivation problem and growth problem). The resolution of which is fundamental of any attempt to raise employment rates among older workers. These conflicts cannot be resolved with a purely age-specific policy. Die Europäische Union hat sich hinsichtlich der Beschäftigung Älterer ehrgeizige Ziele gesetzt. Im März 2001 legte der Europäische Rat in Stockholm fest, dass bis 2010 mindestens die Hälfte der EUBevölkerung im Alter von 55 bis 64 Jahren in Beschäftigung sein soll. Der vorliegende Artikel untersucht mit Daten der Europäischen Arbeitskräftestichprobe 2004 die Partizipation am Arbeitsmarkt älterer Beschäftigter. Gegenwärtig erreichen nur 5 der 15 alten EU Länder bereits eine Beschäftigungsquote der 55 bis 64-Jährigen über 50%. Es wird gezeigt, dass Länder, die der Politik der "Work Line", also der Aktivierung von Personen im Erwerbsalter, folgen (z.B. Dänemark, Schweden), deutlich höhere Beschäftigungsquoten aufweisen als jene, die eine Vorruhestandspolitik (z.B. Deutschland, Frankreich) betrieben haben. Der Vergleich zwischen Work-Line-Ländern und Vorruhestandsländern verweist auf sechs Problembündel, deren Bewältigung zentral für die Erhöhung der Beschäftigungsquote Älterer ist (Gleichstellungsproblem, Humanisierungsproblem, Qualifikationsproblem, Flexibilitätsproblem, Motivationsproblem, Wachstumsproblem). Eine rein altersspezifische Politik wird diese Konflikte nicht auflösen können. 54 148 119 Maintenance of industrial health and safety standards in the butcher's craft Arbeits- und Gesundheitsschutz im Fleischer-Handwerk At present it is estimated that 40 to 50% of the workforce in Germany is employed in smallscale enterprises. Not much is known about occupational health and safety problems in these enterprises. The aim of the present study was to investigate the work environment in the butcher's craft and to develop measures for the reduction of stress and strain at the workplace. Manual material handling turned out to be an essential physical stress factor. High prevalences were found for musculoskeletal disorders. Cold, draft and and alterations of air temperature as well as complaints in the respiratory system were reported frequently. Particulary draft was named as a climatic stress factor. Ergonomic deficits were found with the lighting especially for machine operators. Among the psychological stress factors time pressure, stress, overtime and disturbances of the work process were prevailing. Über die speziellen Arbeitsbedingungen in Kleinbetrieben ist nur wenig bekannt. Das vorliegende Projekt hatte zum Ziel, die Belastungsstrukturen im Fleischer-Handwerk zu untersuchen und gegebenenfalls Vorschläge und Maßnahmen zum Abbau dieser Belastungen zu entwickeln. Als eine wesentliche körperliche Belastung stellte sich das manuelle Handhaben von Lasten heraus. Hohe Prävalenzen von Beschwerden im Haltungs- und Bewegungsapparat wurden in der Befragung gefunden. Kälte, Temperaturschwankungen und Zugluft wurden als klimatische Belastungen häufig genannt. Zugluft wurde dabei als besonders belastend bewertet. Häufige Erkrankungen der Atemwege deuten auf einen Zusammenhang mit dem Klima am Arbeitsplatz hin. Ergonomische Defizite zeigten sich insbesondere bei der Einzelarbeitsplatzbeleuchtung an Maschinen. Zeitdruck, Streß, hohe Konzentration, Überstunden und Störungen des Arbeitsablaufes sind die häufigsten psychischen Belastungen. 55 178 147 Extension of perspectives instead of performance of crisis. A Contribution to the German discussion on industrial sociology At a time when empirical research is facing the challenge of rapid changes in the world of work, contributions to journals conjure up images of wretched, crisis-ridden sociology of work and industrial sociology. This paper points out that most such claims are dramatisations, summing up some central arguments of the discourse. Within our discipline, there appears to be widespread agreement about the need to extend the scope of research bearing in mind the structural changes affecting labour (2). However, extremely different conclusions are drawn from this consensus, with some researchers highlighting industrial sociology?s criticism potential and its pretensions to contribute to social theory, whilst others maintain that shaking off of these traditional views as essential in order to save the discipline (3). It shows that both positions are based on a shorted labour concept. Extending the purview of the concept to work done outside the area of gainful employment not only seems appropriate in the light of changes in work organ Perspektiverweiterung statt Kriseninszenierung 56 136 151 Polyacrylate und Polylactone für Anwendungen in einmodigen, integriert optischen, passiven Wellenleitern Optical waveguide components are key elements in the optical telecommunication technology. These components may be theoretically fabricated very cost effective using polymers. In this work the optical loss of polymer waveguides is examined as a function of the material structure and also in dependance on the waveguide fabrication technology. The polymer waveguides are fabricated using the so-called SIGA-technology. Surface roughness of the waveguides is determined as a main source for optical waveguide losses, which is theoretically calculated. Several copolymers consisting of halogenated acrylates and halogenated lactones are examined with respect to their applicability in optical waveguides. To determine the chemical composition in the waveguides transmission electron microscopy is used, for example. The optical loss in dB of the waveguide polymers in the near infrared region shows a linear dependance on the C-H-bond concentration in the polymers. Optische Wellenleiterkomponenten sind Schlüsselbausteine der optischen Datenübertragungstechnik. Die Herstellung dieser Komponenten auf Basis polymerer Werkstoffe eröffnet die theoretische Möglichkeit zur kostengünstigen Massenfertigung. Im Rahmen dieser Arbeit werden die wesentlichen Abhängigkeiten der optischen Dämpfung passiver integriert einmodiger Polymerwellenleiter sowohl von den strukturellen Eigenschaften der verwendeten Materialien als auch von den technologischen Rahmenbedingungen der Wellenleiterherstellung aufgeklärt. Die Wellenleiterherstellung beruht auf dem sogenannten SIGA-Verfahren. Hier wird die Rauheit der Wellenleiterstrukturen als Hauptfehlerquelle detektiert und der Einfluß auf die Wellenleiterdämpfung theoretisch quantifiziert. Die Eignung verschiedener Copolymersysteme, basierend sowohl auf halogenierten Acrylaten als auch auf halogenierten Polylactonen, für die Verwendung in optischen Wellenleitern wird untersucht. Ein Schwerpunkt dieser Untersuchungen ist u.a. die Visualisierung der chemischen Zusammensetzung der Copolymere im Wellenleiter mittels der Transmissionselektronenmikroskopie. Für die Dämpfung in dB der untersuchten Wellenleitermaterialien im Nahen Infrarot wird eine lineare Abhängigkeit von der C-H-Bindungskonzentration der verwendeten Polymere gefunden. 57 215 195 Dynamical formation and manipulation of the persistent spin helix Understanding and manipulating the electron spin dynamics and transport in low-dimensional semiconductor nanostructures is a key requirement for functional quantum technologies. In this work, a time- and space-resolved magneto-optic Kerr microscope is employed to explore the effect of momentum-dependent effective magnetic fields on the spin dynamics of a twodimensional electron gas in high-mobility GaAs and CdTe quantum wells. Both structures feature nearly equal Dresselhaus and Rashba spin-orbit coupling, enabling the emergence of a unidirectional spin wave texture with SU(2) symmetry, the so-called persistent spin helix. The spin-orbit coupling can be quantified directly from the experimentally measured coherent spin precession pattern. It is observed that application of (i) perpendicular in-plane magnetic fields allows for the extraction of the spin-orbit coupling parameters. (ii) Out-of-plane gate fields tune the Rashba and cubic Dresselhaus parameter directly and (iii) in-plane electric fields vary the modulation frequency of the spin helix and the diffusion coefficient. The CdTe sample reveals a fine tuning of the pattern via (iv) optical doping, creating a spatial gradient of the spin-orbit coupling parameters. Precise engineering of all spin control mechanisms enables a regime of locked spin transport where the effective magnetic fields are suppressed. All experimental results are supported by qualitative kinetic theory and Monte Carlo simulations. Das Verständnis und die Manipulation der Elektronenspindynamik und des Transports in niedrigdimensionalen Halbleiter-Nanostrukturen ist eine Schlüsselanforderung für funktionale Quantentechnologien. In dieser Arbeit wird ein zeit- und ortsaufgelöstes magneto-optisches Kerr-Mikroskop eingesetzt. Dieses ermöglicht es die Wirkung von impulsabhängigen effektiven Magnetfeldern auf die Spin-Dynamik eines zweidimensionalen Elektronengases in GaAs und CdTe Quantentrögen mit hoher Ladungsträgermobilität zu untersuchen. Beide Strukturen verfügen über eine nahezu ausgeglichene Dresselhaus und Rashba Spin-Bahn-Kopplung, die das Entstehen einer unidirektionalen Spinwellentextur mit SU(2)-Symmetrie, der sogenannten persistenten Spin-Helix, ermöglicht. Die Spin-Bahn-Kopplung kann direkt aus dem experimentell gemessenen kohärenten Spin-Präzessionsmuster quantifiziert werden. Es wird beobachtet, dass die Anwendung von (i) Magnetfeldern in der Quantentrogebene die Extraktion der Spin-Bahn-Kopplungsparameter ermöglicht. (ii) Gate-Felder die senkrecht zur Ebene angelegt werden variieren sowohl den Rashba- als auch den kubischen Dresselhaus-Parameter und (iii) elektrische Felder in der Ebene verändern die Modulationsfrequenz der Spin-Helix und den Diffusionskoeffizienten. (iv) Optische Dotierung der CdTe Probe führt zu einer Feinabstimmung der Spin-Helix durch räumliche Gradienten der Spin-Bahn-Kopplungsparameter. Die anschließende präzise Abstimmung aller Spin-Kontrollmechanismen ermöglicht die Unterdrückung von effektiven Magnetfeldern während des Spintransports, so dass die Spinorientierung erhalten bleibt. Alle experimentellen Ergebnisse werden durch Simulationen, basierend auf der Monte Carlo Methode und der kinetischen Theorie bestätigt. 58 120 107 Today, many companies are challenged by unsteady order inflow and need to develop appropriate strategies to meet this challenge. These strategies should primarily aim at increasing the companies flexibility. One starting point in this endeavour are considerations on the scaleable organisation that are introduced in this volume. Its objective is to point out options of different range that enable companies to face the problem of unsteady order inflow. The working paper at hand combines presentations from the fifth profile workshop of the project Lean Implementation pragmatic introduction of integrated business models into companies with standardised production . The project is funded by the German Federal Ministry of Education and Research (BMBF) and its project executing organisation Research Centre Karlsruhe (FZK). Skalierbare Organisation 59 192 168 Möglichkeiten des photokatalytischen Abbaus umweltrelevanter Stickstoffverbindungen unter Einsatz von TiO 2 The possibilities of the photocatalytic degradation of aliphatic and aromatic N-compounds by TiO2 as photocatalyst has been investigated. Different analytical methods for the determination of the used N-Compounds and their breakdown products were developed. The influence of relevant parameters e.g. the pH-Value, kind and concentration of the photocatalyst, structure of the N-compounds on the degradation rates and distribution of the photooxidation products was determined. Based on the obtained results possible degradation mechanisms were developed. Furthermore, the photocatalytic properties of doped and photoplatinized TiO2-powders were studied. Especially the influence of the doping on the electronic structure of the photocatalyst was theoretically and experimentally examined. Moreover, the possibilities of mineralization of N-compounds under use of immobilized pure and doped TiO2-powders were studied. The generated TiO2-coatings were characterized by surface analytical methods. With regard to a technical application the combination of photocatalysis with other wastewater treatment methods was investigated. Beyond that the conclusions drawn from the degradation of model substances showed also to be valid for real waste water samples as experienced from a diluted, liquid bovine manure. An upscaling of the laboratory experiments to pilot-plant scale under use of real solar radiation was realized. Im Rahmen der Arbeit wurden die Möglichkeiten des photokatalytischen Abbaus aliphatischer und aromatischer Stickstoffverbindungen mit TiO2 als Photokata-lysator untersucht. Für die Bestimmung der eingesetzten und während der Experimente ge-bildeten Stick-stoffverbindungen wurden Analysenverfahren erarbeitet. Es wurde der Einfluß relevanter Parameter wie z.B. des pH-Wertes, der Art und Konzentration des Photokatalysators, der Struktur der Stickstoffverbindungen auf Abbauraten und Produktbildung bestimmt. Auf der Basis der Abbauversuche wurden mögliche Abbaumechanismen entwickelt. Desweiteren wurden im Rahmen dieser Arbeit die Einsatzmöglichkeiten dotierter und photoplatinierter TiO2 Photo-katalysa-toren studiert. Insbesondere der Einfluß der Dotierung auf die elektronische Struktur des Photo-katalysators wurde sowohl theoretisch als auch experimentell untersucht. Ferner wurden Studien zum Abbau von Stick-stoffver-bindungen mit immobilisierten Photokatalysatoren durchgeführt. Die erzeugten Schichten wurden mittels oberflächenanalytischer Methoden charakterisiert. Im Hinblick auf eine technische Anwendung wurde abschliessend die Kombination der Photokatalyse mit anderen Abwasser-reinigungsverfahren geprüft. Darüberhinaus konnte ein Weg für die Übertragung des Abbau-verfahrens auf reale Bedingungen anhand eines Upscalings und durch Abbauversuche an realen Proben aufgezeigt werden. 60 110 105 Hochauflösende optische Strahldiagnose mittels Synchrotronstrahlung am Beispiel der Synchrotronstrahlungsquelle DELTA Scope of this thesis is the investigation of the resolution limit of the optical synchrotron light monitors at DELTA, a third generation synchrotron radiation source. At first the normal synchrotron light monitor is analysed. The minimum measurable beam size is about 80 microns. Emphasis is put on a special synchrotron light interferometer, developed for DELTA, which has been built up and tested. This interferometer uses the same beamline and can measure beamsizes down to about 8 microns. So its resolution is about ten times better. Measurements of the electron beam size and emittance are done with both synchrotron light monitors. An investigation of possible reasons of beam movements is appended. In dieser Arbeit wird die Auflösungsgrenze der optischen Synchrotronstrahlungsmonitore am Beispiel der 3. Generation Synchrotronstrahlungsquelle DELTA untersucht. Im Rahmen der Dissertation wird der klassische Synchrotronlichtmonitor mit seiner minimal auflösbaren Elektronenstrahlgröße von ca. 80 µm betrachtet. Insbesondere wird ein für DELTA entwickeltes Synchrotronlichtinterferometer behandelt, das aufgebaut und getestet wurde. Dieses erlaubt an der gleichen Beamline die Messung von Elektronenstrahlgrößen bereits oberhalb ca. 8 µm, bietet also eine um eine Größenordnung bessere Auflösung. Es erfolgen Messungen der Elektronenstrahlgröße und die Bestimmung der Emittanz mittels beider Monitortypen. Hieran schließt sich eine Betrachtung der möglichen Ursachen von Strahlschwankungen an. 61 70 86 Die gegenwärtigen Umsetzung des gemeinsamen Unterrichts in Deutschland The 16 federal states of Germany implement inclusive education for students with and without disabilities based on different premises. This article provides a current overview of these educational approaches by analyzing legislative texts and enquiring delegates of the Association of Special Education in Germany (vds). Results show that inclusive education is currently being implemented all over Germany, but there are notable differences with regard to the chosen forms of inclusion. Entsprechend der föderalen Struktur der Bundesrepublik Deutschland setzen die einzelnen Bundesländer die Umsetzung des gemeinsamen Unterrichts für Schülerinnen und Schüler mit und ohne Behinderung anhand verschiedener Modelle um. Der Artikel gewährt einen aktuellen Überblick über diese Modelle. Hierfür wurden Gesetzestexte der einzelnen Bundesländer ausgewertet und die Landesdelegierten des Verbandes der Sonderpädagogik (VDS) mittels eines Fragebogens befragt. Die Ergebnisse zeigen, dass in allen Bundesländern die Implementierung inklusiver Konzepte stattfindet, wobei sich leichte Unterschiede in den Modellen der Umsetzung finden. 62 374 370 Lokale und nicht-lokale Modellierung und Simulation thermomechanischer Lokalisierung mit Schädigung für metallische Werkstoffe unter Hochgeschwindigkeitsbeanspruchungen High-speed loading of metals is encountered in several engineering applications, for example in crash and drop tests as well as in high-speed cutting or forming processes. Likewise, the impact of rapidly rotating structural components on their surrounding containment, encountered for instance in aircraft turbines, reveals significant, high loading velocities. Typically, this type of loading results in zones with highly localized deformation within the stressed component, as a consequence of softening according to damage evolution and heating due to plastic dissipation. In this context, the formation of shear-bands represents a typical form of thermomechanical localization. In general, the continuum mechanical description and modelling of such events involves a variety of processes and effects such as high strain-rates, hardening behaviour, thermal softening as a result of adiabatic heating, friction and contact as well as damage. Further, these effects need to be considered in the framework of large deformation theory. Rate-dependent "local" models do not generally result in a physical shear-band development, e.g., involving a finite, non-vanishing shear-band thickness. In general, the intrinsic length incorporated by the rate-dependency of the models acts as a localization limiter. However, for various nonlinearly rate-dependent models, such as power-law models or the model according to JOHNSON & COOK, which are frequently used for the simulation of high-speed loading applications, this intrinsic length tends to zero owing to both increasing strain-rates and stress-drop due to softening behaviour. Thus, a loss of the localization limiting property of these rate-dependent models is encountered, incorporating that each finite-element method based upon these models yields a pathological mesh-dependence of the results. "Non-local" gradient-plasticity models based on a corresponding extension of the rate-dependence of the material behaviour are appropriate to avoid these disadvantages. In contrast to local models, the intrinsic length of these non-local models reveals a significantly reduced dependence on both the prevailing stress state and the plastic strain-rate but is dominantly influenced by the non-local material parameter. According to the numerical simulation of localization phenomena using finite-element techniques, the domain of the localization zone does converge to a finite volume for subsequent mesh-refinement. Thus, using non-local models it is possible to simulate the development of finite shear-band widths and to ensure a physically reasonable solution of the governing problem within the framework of continuum mechanics. Hochgeschwindigkeitsbeanspruchungen metallischer Bauteile sind bei einer Vielzahl ingenieurtechnischer Anwendungsbereiche, beispielsweise bei Crash- oder Falltests, bei Umform- oder Spanprozessen mit hohen Belastungsgeschwindigkeiten oder bei Aufprallproblemen von Komponenten schnell rotierender Bauteile auf das umgebende Gehäuse, z. B. bei Flugzeugturbinen, relevant. Dabei treten in dem beanspruchten Bauteil typischerweise Zonen mit großen, lokalisierten Deformationen auf, die auf die Entfestigung des Werkstoffs durch die Entwicklung von Schädigung und durch die Temperaturerhöhung infolge plastischer Dissipation zurückzuführen sind. Die Ausbildung von Scherbändern stellt dabei eine typische Form der Deformationslokalisierung dar. Die kontinuumsmechanische Modellierung solcher Vorgänge erfordert im Allgemeinen die Berücksichtigung einer Vielzahl von Faktoren und Effekten, wie beispielsweise dehnratenabh ängiges Materialverhalten, mit adiabatischer Erhitzung einhergehende thermische Entfestigung, Reibung und Kontakt sowie Schädigung. Darüber hinaus sind die genannten Effekte in dem Rahmen der Theorie großer Deformationen zu betrachten. Dehnratenabhängige "lokale" Modelle resultieren dabei nicht zwangsläufig in einer physikalisch sinnvollen Scherbandabbildung, d. h. in einer endlichen Scherbandbreite. Die innere Länge, die eine Begrenzung des Lokalisierungsvolumens darstellt, strebt für verschiedene im Rahmen der Simulation von Hochgeschwindigkeitsbelastungen eingesetzte, nichtlinear dehnratenabhängige Modelle, wie z.B. Potenzgesetz-Modelle oder dem Modell nach JOHNSON & COOK, mit infolge von Entfestigung abnehmender Spannung sowie zunehmender plastischer Dehnrate sehr stark gegen null. Dadurch tritt ein Verlust der lokalisierungsbegrenzenden Wirkung dieser ratenabh ängigen Modelle ein, so dass insbesondere jedes, auf diesen Modellen aufbauende Finite-Element Verfahren eine pathologische Netzabhängigkeit der Ergebnisse aufweist. "Nicht-lokale" Gradientenmodelle der Plastizität sind dazu geeignet, die beschriebenen Nachteile zu vermeiden. Die innere Länge dieser Modelle weist eine im Vergleich zu lokalen Modellen deutlich reduzierte Abhängigkeit von dem vorherrschenden Spannungszustand sowie der plastischen Dehnrate auf und wird darüber hinaus wesentlich durch den Wert des nichtlokalen Modellparameters beeinflusst. Die Größenordnung der inneren Länge bleibt dabei selbst für kleine Werte dieses Parameters auch mit Einsetzen von Lokalisierungseffekten zunächst erhalten. Infolge der numerischen Umsetzung nicht-lokaler Modelle mittels der Methode der Finiten-Elemente zeigt sich, dass im Gegensatz zu den auf lokalen Modellen basierenden Verfahren das Volumen der Lokalisierungszone bei stetiger Netzverfeinerung gegen einen endlichen Wert konvergiert. Damit gelingt es durch die Verwendung nicht-lokaler Modelle, die Ausbildung endlicher Scherbanddicken diskretisierungsunabhängig zu simulieren und im Rahmen der Kontinuumsmechanik eine sinnvolle Lösung des zugrunde liegenden physikalischen Problems zu gewährleisten. 63 320 290 X-ray studies on adsorption processes at solid-liquid interfaces and ultrafast dynamics in water Water and aqueous solutions play a significant role in nature and technical applications. Many biological and chemical processes that are of great importance in everyday life take place within a liquid environment. When an aqueous solution comes in contact with a solid, a solid-liquid interface is formed at which solvated molecules adsorb preferably. In the framework of this thesis the influence of different parameters, such as thermodynamic properties, electrostatic interactions as well as surface and solvate properties, on the adsorption process at solid-liquid interfaces was investigated. Therefore, in the first part of this thesis, the adsorption of lysozyme on a titanium oxide coated silicon wafer was studied under variation of temperature (20°C – 80°C), pressure (50 bar – 5000 bar), pH value (2 -12) and titanium oxide layer thickness (50 Å – 115 Å), respectively. With increasing temperature, pH value and titanium oxide layer thickness, the adsorption of lysozyme on the surface increases, while rising pressure leads to a desorption of lysozyme. In opposite to this hydrophilic surface also a hydrophobic surface was studied by investigating the adsorption of ions at a silicon wafer with octadecyltrichlorosilane (OTS) coating. Here, ion size as well as ion concentration were varied, respectively. The ions adsorb both in-between as well as on top of the OTS molecules. The adsorbed ion amount increases with rising ion concentration independent of the ion size. The second part of this thesis deals with water as solvent. Here, electron density disturbances in water were investigated on attosecond time scales by means of Inelastic X-ray Scattering (IXS) at three different water temperatures. The electron density disturbance is represented by a damped oscillation of the electron density in space and time, which propagates at 90°C on shorter time scales compared to 4°C and 20°C. Finally, on time scales above 600 as, the system reverts to an undisturbed state. Wasser und wässrige Systeme spielen in der Natur und Technik eine signifikante Rolle, da die meisten biologischen und chemischen Prozesse in wässriger Umgebung stattfinden. Tritt eine wässrige Lösung in Kontakt zu einem Festkörper, entsteht eine fest-flüssig-Grenzfläche, an welcher in Wasser gelöste Moleküle bevorzugt adsorbieren können. Im Rahmen dieser Arbeit wurden mittels Röntgenreflektivität (X-ray Reflectivity, XRR) in-situ Einflüsse diverser Parameter auf den Adsorptionsprozess an der fest-flüssig-Grenzfläche erforscht. Hierzu zählen thermodynamische Eigenschaften, elektrostatische Wechselwirkungen zwischen Oberfläche und Solvat, Oberflächenbeschaffenheit und Eigenschaften des Solvats. Dafür wurde im ersten Abschnitt der Arbeit das Adsorptionsverhalten des Proteins Lysozym auf einem mit Titanoxid beschichteten Siliziumwafer, also einer hydrophilen Oberfläche, untersucht. Hier wurden jeweils einzeln die Temperatur (20°C – 80°C), der Druck (50 bar – 5000 bar), der pH-Wert (2 -12) und die Schichtdicke der Titanoxidbeschichtung (50 Å – 115 Å) variiert, um den Einfluss dieser Parameter auf den Adsorptionsprozess zu untersuchen. Eine Erhöhung der Temperatur, des pH-Wertes und der Titanoxidschichtdicke führte dabei zu größerer Adsorption von Lysozym auf der Oberfläche, während eine Erhöhung des Drucks zur Desorption führte. Des Weiteren wurde das Adsorptionsverhalten von Ionen auf einem mit Oktadecyltrichlorosilan (OTS) beschichteten Siliziumwafer, also einer hydrophoben Oberfläche, erforscht. Dabei wurden jeweils der Ionenradius und die Konzentration der Ionen variiert. Es wurde festgestellt, dass Ionen sowohl auf dem OTS als auch zwischen den einzelnen OTS Molekülen adsorbieren, wobei die Adsorption von Ionen größen- und konzentrationsabhängig ist. Im zweiten Abschnitt der Arbeit wurden mittels inelastischer Röntgenstreuung Elektronendichtestörungen in Wasser auf Zeitskalen von Attosekunden bei drei unterschiedlichen Wassertemperaturen erforscht. Die Elektronendichtestörung spiegelt sich in einer zeitlich und räumlich gedämpften Oszillation der Elektronendichte wider. Diese breitet sich bei 90°C auf kürzeren Zeitskalen im Vergleich zu 4°C und 20°C warmen Wasser aus. Ab 600 as relaxiert das System in einen ungestörten Zustand. 64 222 202 Numerische Modellierung des druck- und ratenabhängigen elastisch-plastischen Verhaltens von metallischen Werkstoffen In this dissertation a nonlinear finite element model is developed for the analysis of the rateindependentand rate-dependent inelastic deformation and localization behavior of metals,which are hydrostatic stress-sensitive and show a different behavior in tension and compressionregions as well as an inelastic volume expansion.The continuum formulation of the large elastic-plastic and large elastic-viscoplastic deformationsis based on the multiplicative decomposition of the metric transformation tensor.Attention is focused particularly on the formulation of rate-independent and rate-dependentinelastic material models being able to simulate numerically the inelastic behavior of metalswhich is characterized by the above-mentioned experimental observed phenomena. In contrastto classical theories of metal plasticity a yield criterion and yield function respectivelydepending on 1 I , 2 J and 3 J are employed as well as a non-associated flow rule.The integration of the constitutive equations relies on an explicit algorithm consisting of aninelastic predictor and an elastic corrector.Extensive numerical investigations are carried out to study the effect of the material model onthe elastic-plastic and elastic-viscoplastic deformation and localization behavior. Therefor theinfluence of different material parameters is analysed.The results of the numerical calculations demonstrate that taking into account hydrostaticstress-sensitivity and rate-dependence of the inelastic material behavior can have a significantinfluence on the deformation and localization behavior. Since the real macroscopic behavioris described more accurately than before, the developed material model contributes to anoticeable improvement of the simulation quality. In der vorliegenden Arbeit wird ein nichtlineares Finite-Element-Modell zur Analyse des ratenunabhängigen und ratenabhängigen inelastischen Deformations- und Lokalisierungsverhaltens von Metallen entwickelt, die vom hydrostatischen Spannungszustand abhängig sind,ein unterschiedliches Verhalten im Zug- und Druckbereich sowie eine inelastische Volumendilatationaufweisen.Die kontinuumsmechanische Beschreibung der großen elastisch-plastischen und großenelastisch-viskoplastischen Deformationen basiert auf der multiplikativen Aufspaltung desMetrik-Transformationstensors.Einen Schwerpunkt dieser Arbeit bildet die Formulierung ratenunabhängiger und ratenabhängigerinelastischer Materialmodelle, mit denen das durch die genannten Phänomene gekennzeichnetebei Experimenten beobachtete inelastische Materialverhalten metallischer Werkstoffenumerisch simuliert werden kann. Dafür wird abweichend von der klassischenMetallplastizität eine von 1 I , 2 J und 3 J abhängige Fließbedingung bzw. Fließfunktion sowieein nicht-assoziiertes Fließgesetz verwendet.Die numerische Integration der konstitutiven Gleichungen erfolgt mittels eines explizitenAlgorithmus, der aus einem inelastischen Prädiktor und elastischen Korrektor besteht.Anhand ausführlicher numerischer Studien wird die Auswirkung des Materialmodells auf daselastisch-plastische und elastisch-viskoplastische Deformations- und Lokalisierungsverhaltenuntersucht. Dafür wird der Einfluss unterschiedlicher Materialparameter analysiert.Die Ergebnisse der numerischen Untersuchungen verdeutlichen, dass die Berücksichtigungder Abhängigkeit vom hydrostatischen Spannungszustand und der Ratenabhängigkeit desinelastischen Materialverhaltens einen signifikanten Einfluss auf das Deformations- undLokalisierungsverhalten haben kann. Das entwickelte Materialmodell für Metalle trägt somitzu einer deutlichen Verbesserung der Simulationsergebnisse bei, da das reale makroskopischeVerhalten genauer als bisher beschrieben werden kann. 65 377 297 Statistische Extraktion relevanter Information aus multivariaten Online-Monitoring-Daten der Intensivmedizin This doctoral thesis is concerned with online monitoring data from intensive care medicine. The problem under investigation is the extraction of clinically relevant information from haemodynamic vital parameters by means of multivariate statistical methods. First, statistical methods for dimension reduction of multivariate time series, such as static and dynamic factor analysis or principal components analysis, are used. These are discussed with respect to application in intensive care monitoring. Time series in intensive care are found to show strong patterns, like periods of relative constancy, monotonic trends, abrupt level shifts and many measurement artefacts. Thus, global modelling of the data with time-invariant models or parameters is not feasible. Local modelling of the data by dynamic factor models is a complex task that involves a large number of unknown parameters. However, online monitoring of highly complex physiologic processes requires relatively simple methods that allow to draw interpretable conclusions about a patient's health state. Only a few common static principal components are required in order to explain the largest amount of total variability for the haemodynamic observations. Compared to a subjective variable selection these components give a better description of the data while being interpretable to the physician. A drawback is that, locally, these principal components do not necessarily contain all clinically relevant information. A useful approach for the extraction of relevant information from haemodynamic time series is given by methods of multivariate signal extraction. Here, smooth signals that contain the clinically relevant structure are separated from observational noise and artefacts. Thus, the recorded monitoring data are reduced to the relevant information. Robust multivariate regression functionals are needed for local trend approximation in a short moving time window. As the vital parameters are measured on a discrete scale with many patterns of relative constancy, local application of known, affine equivariant and highly robust techniques of regression on small samples is not possible. Therefore, a new procedure is proposed that offers a fast, highly robust and reliable solution for multivariate online signal extraction in intensive care. The resulting signals continuously present the local level of the vital parameters. Additionally, the local patterns found in the time series can be used to decide on the patient's health state by means of clinical knowledge. In dieser Dissertation wird mit Hilfe multivariater statistischer Verfahren untersucht, wie im Online-Monitoring in der Intensivmedizin klinisch relevante Information aus Beobachtungen für Variablen des Herz-Kreislaufsystems extrahiert werden kann. Insbesondere ist eine Reduktion der erhobenen Daten auf wesentliche Informationen angestrebt. Zur Bearbeitung der Fragestellung werden zunächst dimensionsreduzierende Verfahren für multivariate Zeitreihen, wie Techniken der statischen und dynamischen Faktoranalyse bzw. Hauptkomponentenanalyse, herangezogen und hinsichtlich einer Anwendung im Intensivmonitoring diskutiert. Es wird gezeigt, dass sich die intensivmedizinischen Zeitreihen aufgrund von ausgeprägten strukturellen Mustern, wie Trends, spontanen Niveauänderungen und Ausreißern, global nicht durch ein einziges Modell beschreiben lassen. Faktoranalytische Ansätze sind nicht geeignet, da eine vernünftige Modellanpassung an die Daten nur lokal möglich ist und dabei meist sehr aufwendig ist. Für die Überwachung hochkomplexer physiologischer Vorgänge in Echtzeit werden möglichst einfache Methoden benötigt, die interpretierbare Rückschlüsse auf den Zustand der Patienten ermöglichen. Wenige gemeinsame statische Hauptkomponenten der hämodynamischen Beobachtungen erfassen bei einer guten Interpretierbarkeit einen größeren Anteil der Gesamtvarianz als eine subjektive Variablenselektion, enthalten jedoch nicht notwendigerweise kontinuierlich sämtliche klinisch relevante Information. Einen nützlichen Ansatz zur Informationsextraktion aus multivariaten hämodynamischen Zeitreihen bieten multivariate Signalextraktionsverfahren. In einem ersten Schritt werden hierbei glatte Signale, die die klinisch relevanten Strukturänderungen der Zeitreihen enthalten, von Beobachtungsrauschen und Artefakten getrennt. So werden die aufgezeichneten Monitor-Daten auf wesentliche Informationen reduziert. Aufgrund der diskreten Messung der klinischen Variablen ist eine lokale Anwendung von bekannten, affin äquivarianten und hochrobusten Regressionstechniken auf kleine Stichproben in jedem Zeitfenster im Online-Monitoring nicht möglich. Daher wird eine neue multivariate Signalextraktionsprozedur vorgeschlagen, die für die vorliegenden Daten eine praktikable Lösung darstellt. Die extrahierten Signale geben kontinuierlich Aufschluss über das lokale Niveau der betrachteten Vitalparameter, eine klinisch relevante Information. Zusätzlich können die in den Zeitreihen gefundenen lokalen Strukturen weiter genutzt werden, um schließlich mit Hilfe medizinischen Wissens Aussagen über den Zustand eines Intensivpatienten zu treffen. 66 226 203 Exciton polariton interactions in tailored optical potential landscapes in semiconductor microcavities Nowadays complex problems are mostly solved by sophisticated algorithms and advanced computer systems, which are however limited in that they only allow a certain complexity in relation to the size of the problems to be solved. If the computational effort increases non-linearly with the number of input parameters, even state-of-the-art technologies reach their limits. An alternative to the calculation of complex problems is to tailor a physical system that represents a complex problem in a generalized form and whose temporal behavior can be considered as a simulation of the problem. A physical system that is relatively easily generated and controlled by optical methods is represented by exciton polaritons in semiconductor microcavities. Exciton polaritons are composite quasiparticles formed by the strong coupling between quantum well excitons and cavity photons. By the spatial modulation of laser beams, arbitrary graphs of exciton polaritons can be generated and finally their properties can be investigated by conventional spectroscopic methods both time-resolved and time-integrated. Knowledge of their properties is essential to draw the right conclusions from simulations performed by graphs consisting of exciton polaritons. The properties investigated in this thesis include the dynamics of the exciton polariton pseudospin, the interaction between an exciton polariton condensate and a reservoir of background charge carriers, as well as the lifetime of the reservoir itself. In der heutigen Zeit werden komplexe Probleme zumeist durch aufwendige Algorithmen und unter Zuhilfenahme fortgeschrittener Computersysteme gelöst, die jedoch insofern limitiert sind, als dass sie nur eine gewisse Komplexität im Bezug auf die Größe der zu lösenden Probleme erlauben. Steigt der Rechenaufwand nichtlinear mit der Zahl der Eingabeparameter, so kommen selbst hochmoderne Technologien an ihre Grenzen. Eine Alternative zur Berechnung komplexer Probleme ist das Maßschneidern eines physikalischen Systems, das ein komplexes Problem in generalisierter Form darstellt und dessen zeitliches Verhalten als Simulation des Problems angesehen werden kann. Ein physikalisches System, das relativ einfach mit optischen Methoden erzeugt und gesteuert werden kann, wird durch Exziton-Polaritonen in Halbleitermikrokavitäten repräsentiert. Exziton-Polaritonen sind Quasiteilchen, die durch die starke Kopplung zwischen Quantenschicht-Exzitonen und Kavitäts-Photonen gebildet werden. Durch die räumliche Modulation von Laserstrahlen können beliebige Graphen von Exziton-Polaritonen erzeugt und schließlich deren Eigenschaften mit herkömmlichen spektroskopischen Methoden sowohl zeitaufgelöst als auch zeitintegriert untersucht werden. Die Kenntnis über ihre Eigenschaften ist essenziell wichtig, um die richtigen Schlüsse aus Simulationen ziehen, die durch Graphen bestehend aus Exziton-Polaritonen durchgeführt werden. Die Eigenschaften die in dieser Thesis untersucht werden beinhalten die Dynamik des Exciton-Polariton Pseudospins, die Wechselwirkung zwischen einem Exziton-Polariton Kondensat und einem Reservoir aus Hintergrund Ladungsträgern sowie die Lebensdauer des Reservoirs selbst. 67 154 151 Comparing the media usage of mono- and multilingual preschoolers age 3 to 6 Vergleich der Mediennutzung einsprachig und mehrsprachig aufwachsender Kinder zwischen drei und sechs Jahren Whether media facilitate or inhibit language learning depends on media content as well as on media format: image driven media (e.g., TV) are hereby assumed to have les potential compared to language drive media (e.g., books, audio stories). Children with specific language impairment have earlier been shown to prefer image driven media and avoid language driven media compared to their peers. This study aims to investigate whether a similar pattern can be found for multilingual compared to monolingual preschoolers. A survey was distributed to parents of preschoolers in a midurban region in Germany. Final sample consisted of 276 data sets including 181 mono- and 95 multilingual children age 3 to 6. Findings confirm the hypotheses of multilingual children using less language driven, but more image driven media. They hereby make less use of the facilitating potential of media for language learning. Das Sprachförderpotential von Medien hängt von den Medieninhalten, aber auch von dem Medienformat ab: Bildlastige Medien (v.a. TV) werden hier als weniger potent eingestuft als sprachlastige Medien (v.a. Buch, Hörspiel). Kinder mit Sprachauffälligkeiten tendieren dazu, sprachlastige Medien zu meiden und dafür verstärkt bildlastige Medien zu nutzen. In dieser Studie wurde untersucht, ob sich ein vergleichbarer Befund für mehrsprachige im Vergleich zu einsprachig aufwachsenden Kindern ergibt. Hierzu wurde eine Fragebogenstudie durchgeführt, für die Eltern von insgesamt 276, davon 181 ein- und 95 mehrsprachigen Kindern im Alter zwischen drei und sechs Jahren gewonnen werden konnten. Alle Familien wurden in denselben Kindergärten und Kinderbetreuungseinrichtungen einer mittlelstädtischen Region in NRW rekrutiert. Die Ergebnisse bestätigen die Hypothese, wonach auch mehrsprachige Kinder im Vergleich zu ihren einsprachigen Peers sich verstärkt den bildlastigen Medien zuwenden, aber die sprachlastigen und damit potentiell sprachförderlichen Medien weniger nutzen. 68 135 128 A duration approach for the measurement of biometric risks in life insurance Ein Durationsansatz für die Messung biometrischer Risiken in der Lebensversicherung Duration concepts are standard methods for measuring interest rate risks of portfolios, liabilities or other cash flows. Macaulay duration, effective duration and key-rate duration are widely used in practice according to different types of yield curves. In this paper, we will present a formulation for a forward rate duration measure by using multi-dimensional Taylor series approximation. It allows to measure the interest rate risk based on arbitrary forward rates. This approach can easily be adopted for biometric risk management, allowing the definition of a biometric duration. The biometric duration will be applied to actuarial present values of premiums and benefits as well as the actuarial reserve to quantify the corresponding biometric risk. It proves to be an easy-to-use tool in the actuarial practise. Durationskonzepte zählen zu den Standardmethoden bei der Messung von Zinsänderungsrisiken von Zahlungsreihen. In der Praxis werden häufig die Macaulay-Duration, die effektive Duration und die Key-Rate-Duration, entsprechend ihrer zugrundeliegenden Zinskurven, angewendet. In diesem Beitrag stellen wir eine Formulierung für eine Forward-Rate-Duration unter Verwendung einer mehrdimensionalen Taylor- Reihenentwicklung vor. Sie ermöglicht die Messung des Zinsänderungsrisikos auf der Grundlage beliebiger Terminzinsen. Dieser Ansatz lässt sich leicht auf die Messung biometrischer Risiken anwenden und ermöglicht die Definition einer biometrischen Duration. Die biometrische Duration wird auf die versicherungsmathematischen Barwerte der Prämien und Leistungen sowie auf die Deckungsrückstellung zur Quantifizierung des entsprechenden biometrischen Risikos angewendet. Es erweist sich als ein Instrument, das auf einfache Art und Weise in der aktuariellen Praxis angewendet werden kann. 69 270 262 Effiziente Fluidphasentheorie für Protonierungsprozesse in komplexen Systemen The present thesis deals with the creation of efficient methods for the characterization of protonation states of small molecules inside the binding pockets of proteins using physics-based computer-assisted calculations with the Embedded-Cluster Reference Interaction Site Model- (EC-RISM-) method which couples quantum-chemical calculations with a model for the quantification of solvent effects („solvation model“) based on 3D Reference Interaction Site Model (3D RISM) integral equation theory. For achieving this objective, two different types of obstacles needed to be overcome: To keep computing times reasonable, the computer codes needed acceleration and a statistical-mechanical formalism adequate for EC-RISM needed to be developed. To this end, the 3D RISM software was parallelized and optimized, a fast summation technique from the area of particle simulations was adapted for 3D RISM, computationally expensive long-range real-space terms needed to compute thermodynamic observables were shifted from uniform 3D grids to computationally expedient radial logarithmic grids and an adaptive method to reduce the number of 1-electron-integrals needed for EC-RISM, an EC-RISM-Quantum Mechanics/Molecular Mechanics- (QM/MM-) method as well as a statistical-mechanical framework for the treatment of coupled ionization and tautomerization equilibria was developed. The EC-RISM-QM/MM-method can be used to treat systems containing thousands of atoms like e.g. protein-ligand-complexes since parts of the system far removed from the place of reactive events can be described using simple force-fields. Using the statistical-mechanical framework, we proceed to calculate the fractions of different chemical species exhibiting diverse protonation pattern as a function of pH. The methodology was validated on several test systems with increasing complexity. As an application, the protonation state of pteroic acid in complex with the highly toxic protein ricin was characterized. Im Rahmen der vorliegenden Arbeit wurden effiziente Methoden entwickelt, um den Protonierungszustand kleiner Moleküle in der Bindetasche von Proteinen mittels physikbasierter computergestützter Berechnungen in Form der Embedded-Cluster Reference Interaction Site Model- (EC-RISM-) Methode zu charakterisieren, die quantenchemische Berechnungen mit einem Modell zur Quantifizierung von Lösungsmitteleffekten („Solvatationsmodell“) auf Basis der 3D Reference Interaction Site Model (3D-RISM-) Integralgleichungstheorie verknüpft. Hierzu waren zwei verschiedene Arten von Herausforderungen zu überwinden: Um den Zeitaufwand für die Berechnungen akzeptabel zu halten mussten die verwendeten Computerprogramme beschleunigt werden und für die Beschreibung komplexer Protonierungsszenarien musste ein für die EC-RISM-Methode adäquates theoretisches Fundament gefunden werden. Um diesen Herausforderungen zu begegnen wurden der Quellcode des 3D-RISM-Lösers parallelisiert und optimiert, ein schnelles Summationsverfahren aus dem Bereich der Partikelsimulation für 3D-RISM adaptiert, aufwendig zu berechnende langreichweitige Realraumterme für die Berechnung thermodynamischer Observablen von großen uniformen 3D-Gittern auf für die Computerauswertung vorteilhafte radiale logarithmische Gitter verlagert und ein adaptives Verfahren zur Reduktion der Anzahl der für EC-RISM benötigten 1 Elektronenintegrale, ein EC-RISM-Quantenmechanik/Molekülmechanik- (QM/MM-) Verfahren sowie ein statistisch-mechanischer Formalismus zur Behandlung gekoppelter Ionisierungs- und Tautomerengleichgewichte auf der Basis von Gibbs-Energien entwickelt. Im EC-RISM-QM/MM-Verfahren können Systeme mit tausenden Atomen wie z.B. Protein-Ligand-Komplexe traktiert werden, da die Teile dieser Systeme, die vom Ort reaktiver Veränderungen weiter entfernt sind, mit Hilfe einfacher klassischer Kraftfelder beschrieben werden. Mit dem statistisch-mechanischen Formalismus kann der jeweilige Anteil unterschiedlich protonierter chemischer Spezies in Abhängigkeit des pH-Werts berechnet werden. Die Methodik wurde anhand mehrerer unterschiedlicher Testsysteme mit zunehmender Komplexität validiert. Als Anwendungsbeispiel wurde der Protonierungszustand von Pteroinsäure im Komplex mit dem stark toxischen Protein Rizin charakterisiert. 70 122 89 The integration in the workplace of employees with changing capabilities and productivity levels A labour and human resources project in the automotive industry The integration of employees with changing capabilities and productivity levels is becoming an issue for companies against the background of demographic changes in the workplace. After defining the term and identifying the group of employees with changing capabilities and productivity levels, the issue is integrated in management concepts i.e. in human resources, health, diversity and disability management. There follows a discussion on the integration of employees with changing capabilities and productivity levels using the models for integration, separation, flexibilisation and in-sourcing/out-sourcing. The discussion is based largely on the "Work2Work" project. Conclusions are drawn from this project for other companies. Die betriebliche Integration leistungsgewandelter Mitarbeiter 71 398 397 Totalsynthesen von 5,6-Dihydrocineromycin B, Radicinol und 3-epi-Radicinol sowie Synthesen der vermeintlichen Strukturen von 3-Methoxy-3-epi-Radicinol und Orevactaene Total Synthesis and Late Stage Modification of (‒)-5,6-Dihydrocineromycin B (‒)-Dihydrocineromycin B (I, Scheme 1) is a 14-membered antibiotic macrolide, belonging to a family that exhibits potential for treatment against methicillin-resistant Staphylococcus aureus (MRSA). The lack of relevant biological data for I in particular and of efficient methods for the formation of the naturally abundant (E)-2-methyl-2-but-2-en-1-ol motif (blue) encouraged us to develop a new synthetic strategy. Our approach combined ring-closing alkyne metathesis to furnish cycloalkyne III, followed by a regioselective Ru-catalyzed trans-hydrostannation and the concluding Stille-coupling with methyl iodide. The versatility of vinyl-tributyltin intermediate II was demonstrated by late stage diversification that allowed various analogues of the natural product to be prepared. Scheme 1. Retrosynthetic anaylsis of 5,6-dihydrocineromycin B (I). Gold-Catalyzed 4-Oxo-2-Pyrone Synthesis Fürstner and coworkers previously developed a AuI-catalyzed cyclization which enabled facile synthesis of substituted pyrones under remarkably mild reaction conditions (Scheme 2). However, the preparation of sterically demanding cyclization precursors containing bulky tert-butyl ester (VI) was found to be challenging. We established that the analogous cyclization can be effected with the corresponding 2-TMS-ethanol-ester (VII) which is more readily prepared. This modification of the gold-catalyzed pyrone synthesis was applied to the first total syntheses of radicinol (VIII), 3-epiradicinol (IX), and putative 3-methoxy-3-epi-radicinol (X). Through acid-promoted SN2 reactions at C3 position of common intermediate XI, the three targets could be synthesized in a divergent fashion. Unfortunately, the analytical data of X did not match those reported in the isolation studies, which suggests structural misassignment in the original report. XII Scheme 2. a) Comparison of the used esters in the gold-catalyzed pyrone cyclization; b) Retrosynthetic analysis of radicinol (VIII), 3-epi-radicinol (IX) and 3-methoxy-3-epi-radicinol (X). Subsequently the gold-catalyzed pyrone synthesis was applied as a key step to prepare a highly complex natural product, Orevactaene (XII, Scheme 3). The sensitive heptaene and the highly oxidized bicyclic structure in the natural product renders its synthesis challenging. Furthermore, the lack of configurational assignment of four stereogenic centers in the literature called for a strategy that could allow the formation of all sixteen possible diastereoisomers. Therefore, by employing the highly convergent strategy, involving two late-stage sp2–sp2 cross-coupling reactions between fragments XIII, XIV, and XV, two stereoisomers of Orevactaene (XII) were synthesized. However, their analytical data did not support the proposed structure of XII, but rather indicate that the bicyclic structure was fundamentally misassigned by the isolation team. Scheme 3. Retrosynthetic analysis of orevactaene (XII). Totalsynthese und „late-stage“ Modifizierung von (‒)-5,6-Dihydrocineromycin B (‒)-Dihydrocineromycin B (I, Schema 1) ist ein 14-gliedriges antibiotisches Makrolacton aus einer Naturstofffamilie mit möglicherweise großem Potential zur Bekämpfung von Methicillin-resistentem Staphylococcus aureus (MRSA). Der Mangel relevanter biologischer Daten für I und die ineffizienten bekannten Möglichkeiten zum Aufbau der in polyketidischen Naturstoffen häufig vorkommenden (E)-2-Methyl-2-but-2-en-1-ol Substruktur (blau) ermutigten uns eine neue Strategie zur Synthese dieses Naturstoffs zu entwickeln. Unser Ansatz kombinierte ringschließende Alkinmetathese mit einer regioselektiven Ru-katalysierten trans-Addition von Bu3SnH an das so erhaltene Zykloalkin III und einer abschließenden Stille-Kupplung mit Iodmethan. Die vielseitigen Verwendungsmöglichkeiten des Alkenylstannans II erlaubten neben der Synthese des Naturstoffs auch die Herstellung zahlreicher Derivate. Schema 1. Retrosynthetische Analyse von 5,6-Dihydrocineromycin B (I). Goldkatalysierte Synthese von 4-Oxo-2-Pyronen Die von Fürstner und Mitarbeitern zuvor entwickelte AuI-katalysierte Pyronsynthese ermöglicht den einfachen Aufbau substituierter Pyrone unter bemerkenswert milden Bedingungen (Schema 2). Der Aufbau des benötigten tert-Butylesters (VI) stellte sich jedoch für sterisch anspruchsvolle Zyklisierungsvorläufer als problematisch heraus. Es war uns möglich zu zeigen, dass die analoge Zyklisierung durch die Verwendung von 2-TMS-Ethanolestern (VII) durchgeführt werden kann, welche sich einfacher darstellen lassen. Diese Modifikation der goldkatalysierten Pyronsynthese wurde in den ersten Totalsynthesen von Radicinol (VIII), 3-epi-Radicinol (IX) und vermeintlichem 3-Methoxy-3-epi-Radicinol (X) eindrucksvoll zur Schau gestellt. Mithilfe einer Säure-mediierten SN2- Substitution an C3 konnten die drei genannten Verbindungen aus der gemeinsamen Vorstufe XI X hergestellt werden. Bedauerlicherweise stimmen die gemessenen nicht mit den in der Literatur veröffentlichten Daten für X überein, was eine falsche Strukturaufklärung nahelegt. Schema 2. Vergleich der benutzten Ester in der goldkatalysierten Pyronsynthese und retrosynthetische Analyse von Radicinol (VIII), 3-epi-Radicinol (IX) und 3-Methoxy-3-epi-Radicinol (X). Darauffolgend wurde die Modifikation der goldkatalysierten Pyronsynthese als Schlüsselschritt in der Synthese des hochkomplexen Orevactaene (XII, Schema 3) angewandt. Das sensitive Heptaen und der hochoxidierte Bizyklus sowie die Nichtzuordnung der relativen Konfiguration von vier der sieben stereogenen Zentren in der Literatur machten die Synthese reizvoll. Dies erforderte die Entwicklung einer Strategie, die die individuelle Synthese jedes der 16 möglichen Diastereomere erlaubte. Daher wurde eine hochkonvergente Route mit zwei aufeinanderfolgenden sp2–sp2 Kupplungsreaktionen zur Verknüpfung der Fragmente XIII, XIV und XV entworfen. Die Synthese zweier möglicher Diastereomere von Orevactaene (XII) konnte abgeschlossen werden. Allerdings zeigten die gemessenen analytischen Daten, dass die Struktur des Bizyklus von Orevactaene (XII) vom Isolationsteam grundlegend falsch zugeordnet wurde. Schema 3. Retrosynthetische Analyse von Orevactaene (XII). 72 396 325 Visual navigation and servoing for object manipulation with mobile robots In the future, autonomous service robots are supposed to remove the burden of monotonic and tedious tasks like pickup and delivery from people. Vision being the most important human sensor and feedback system is considered to play a prominent role in the future of robotics. Robust techniques for visual robot navigation, object recognition and vision assisted object manipulation are essential in service robotics tasks. Mobile manipulation in service robotics applications requires the alignment of the end-effector with recognized objects of unknown pose. Image based visual servoing provides a means of model-free manipulation of objects solely relying on 2D image information. In this thesis contributions to the field of decoupled visual servoing for object manipulation as well as navigation are presented. A novel approach for large view visual servoing of mobile robots is presented by decoupling the gaze and navigation control via a virtual camera plane, which enables the visual controller to use the same natural landmarks efficiently over a large range of motion. In order to complete the repertoire of reactive visual behaviors an innovative door passing behavior and an obstacle avoidance behavior using omnivision are designed. The developed visual behaviors represent a significant step towards the visual navigation paradigm relying solely on visual perception. A novel approach for visual servoing based on augmented image features is presented, which has only four offdiagonal couplings between the visual moments and the degrees of motion. As the visual servoing relies on unique image features, object recognition and pose alignment of the manipulator rely on the same representation of the object. In many scenarios the features extracted in the reference pose are only perceivable across a limited region of the work space. This necessitates the introduction of additional intermediate reference views of the object and requires path planning in view space. In this thesis a model-free approach for optimal large view visual servoing by switching between reference views in order to minimize the time to convergence is presented. The efficiency and robustness of the proposed visual control schemes are evaluated in the virtual reality and on the real mobile platform as well as on two different manipulators. The experiments are performed successfully in different scenarios in realistic office environments without any prior structuring. Therefore this thesis presents a major contribution towards vision as the universal sensor for mobile manipulation. Autonome Serviceroboter sollen in Zukunft dem Menschen monotone und körperlich anstrengende Aufgaben abnehmen, indem sie beispielsweise Hol- und Bringedienste ausüben. Visuelle Wahrnehmung ist das wichtigste menschliche Sinnesorgan und Rückkopplungssystem und wird daher eine herausragende Rolle in zukünftigen Robotikanwendungen spielen. Robuste Verfahren für bildbasierte Navigation, Objekterkennung und Manipulation sind essentiell für Anwendungen in der Servicerobotik. Die mobile Manipulation in der Servicerobotik erfordert die Ausrichtung des Endeffektors zu erkannten Objekten in unbekannter Lage. Die bildbasierte Regelung ermöglicht eine modellfreie Objektmanipulation allein durch Berücksichtigung der zweidimensionalen Bildinformationen. Im Rahmen dieser Arbeit werden Beiträge zur entkoppelten bildbasierten Regelung sowohl für die Objektmanipulation als auch für die Navigation präsentiert. Ein neuartiger Ansatz für die bildbasierte Weitbereichsregelung mobiler Roboter wird vorgestellt. Hierbei werden die Blickrichtungs- und Navigationsregelung durch eine virtuelle Kameraebene entkoppelt, was es der bildbasierten Regelung ermöglicht, dieselben natürlichen Landmarken effizient über einen weiten Bewegungsbereich zu verwenden. Um das Repertoire der visuellen Verhalten zu vervollständigen, werden ein innovatives Türdurchfahrtsverhalten sowie ein Hindernisvermeidungsverhalten basierend auf omnidirektionaler Wahrnehmung entwickelt. Die entworfenen visuellen Verhalten stellen einen wichtigen Schritt in Richtung des Paradigmas der reinen visuellen Navigation dar. Ein neuartiger Ansatz basierend auf Bildmerkmalen mit einer erweiterten Anzahl von Attributen wird vorgestellt, der nach einer Entkopplung der Eingangsgrößen nur vier unerwünschte Kopplungen zwischen den Bildmomenten und den Bewegungsfreiheitsgraden aufweist. In vielen Anwendungsszenarien sind die extrahierten Referenzmerkmale nur in einem begrenzten Bereich des Arbeitsraums sichtbar. Dies erfordert die Einführung zusätzlicher Zwischenansichten des Objektes sowie eine Pfadplanung im zweidimensionalen Bildraum. In dieser Arbeit wird deswegen eine modellfreie Methodik für die zeitoptimale bildbasierte Weitbereichsregelung präsentiert, in der zwischen den einzelnen Referenzansichten umgeschaltet wird, um die Konvergenzzeit zu minimieren. Die Effizienz und Robustheit der vorgeschlagenen bildbasierten Regler werden sowohl in der virtuellen Realität als auch auf der realen mobilen Plattform sowie zwei unterschiedlichen Manipulatoren verifiziert. Die Experimente werden in unterschiedlichen Szenarien in alltäglichen Büroumgebungen ohne vorherige Strukturierung durchgeführt. Diese Arbeit stellt einen wichtigen Schritt hin zu visueller Wahrnehmung als einziger und universeller Sensor für die mobile Manipulation dar. 73 191 137 Thesen zum Wandel eines eigenständigen Segments betrieblicher Weiterbildung Communication training Kommunikationstrainings haben sich als relativ eigenständiges Segment betrieblicher Weiterbildung etabliert. Dieser Aufsatz will zu einer stärkeren wissenschaftlichen Auseinandersetzung mit diesem spezifischen Bildungssegment anregen und auf mögliche Forschungsfragen hinweisen. Es wird die These vertreten, daß Kommunikationstrainings nach einer Wachstumsphase in den achtziger Jahren nunmehr deutliche Krisenerscheinungen aufweisen. Seminarerfahrene TeilnehmerInnen stellen neuartige Ansprüche, auf welche erfolgsverwöhnte TrainerInnen nur unzureichend vorbereitet sind. Während die methodisch-didaktische Entwicklung _ abgekoppelt von der berufspädagogischen Forschung _ stagniert, versuchen Betriebe in neuem Maßstab, Trainings für Organisationszwecke zu instrumentalisieren. Es zeichnen sich Tendenzen in Richtung auf ein noch breiteres und diffuseres Aktionsfeld für TrainerInnen ab. Auch wenn eine stärkere formale Regelung dieses Bildungssegments wenig aussichtsreich erscheint, wird für kollektive Strategien zur Interessenvertretung auf Trainerseite und die Schaffung größerer Transparenz in einer eigendynamischen Entwicklung durch sozialwissenschaftliche Forschung plädiert. 74 172 143 Measurements of beauty hadron to charmonium decays In dieser Arbeit werden zwei Messungen in Zerfällen von beauty Hadronen in ein charmonium Meson und einem strange Hadron vorgestellt. In der ersten Messung wird das Verhältnis von Verzweigungsverhältnissen von Λb→ψ(2S)Λ und Λb→J/ψΛ Zerfällen bestimmt. Diese Analyse benutzt einen Datensatz der 3 fb-1 entspricht und mit dem LHCb- Experiment bei einer Schwerpunktsenergie von 7 und 8 TeV aufgezeichnet wurde. Das Verhältnis von Verzweigungsverhältnissen ist bestimmt zu BR(Λb→ψ(2S)Λ)/BR(Λb→J/ψΛ)= 0.513 ± 0.023 (stat) ± 0.016 (syst) ± 0.011 (BR). In der zweiten Messung wird CP Verletzung in B0→J/ψKS, B0→ψ(2S)KS und Bs0→J/ψKS Zerfällen bestimmt. Der analysierte LHCb Datensatz entspricht 6 fb-1, aufgenommen bei einer Schwerpunktsenergie von 13 TeV. Die Analyse ist noch nicht abgeschlossen und noch blind. Die gemessenen Präzessionen der CP Parameter S und C in den analysierten Bd0 Zerfällen sind σ(S) = 0.0133 (stat) ± 0.0063 (syst), σ(C) = 0.0125 (stat) ± 0.0042 (syst). 75 340 260 Product standardization by multinational corporations in a regional multicultural market Die Produktpolitik wird komplexer, sobald ein Unternehmen beginnt, sich zu internationalisieren. Europäische Unternehmen werden mit der Komplexität der internationalen Produktpolitik konfrontiert, sobald sie sie Marktanteile auf den verschiedenen Europäischen Märkten gewinnen, die in Anbetracht der kulturellen Unterschiede heterogen bleiben. Die grundlegende Frage unserer Forschung besteht darin zu erfahren wie Unternehmen der Kosmetikbranche ihre Produkte auf dem Markt der Europäischen Union vereinheitlichen. Wir nutzen die Fallstudie, die den Produkt- Standardisierungs- Prozess beschreibt den diese Unternehmen anwenden. Das Hauptziel ist die Rolle der Marke, der Verpackung, des Produkt- Etiketts und der Organisationsstruktur eines Unternehmens festzusetzen, je nachdem ob es internationale oder regionale Wege geht. Die Abhandlung beginnt mit einem Überblick über wissenschaftliche Literatur, die den Beitrag der Internationalisierungstheorien zur Firmenstrategie hervorhebt, ebenso wie die internationale Handeltheorie, IPLC, oder die Theorie der Konvergenzbedürfnisse der Kunden, die die zentrale Funktion des standardisierten Produktes betont. Das Standardisierungsphänomen wird auch deswegen angestrebt, um die Zugänglichkeit des Produktes im Auslandsmarkt zu erhöhen. Eine Beschreibung des Hintergrundes der Produktnormierung wird auch zur Verfügung gestellt. Es wird zudem ein beispielhaftes Verfahren zur Analyse von Unternehmen, die ihre Produkte standardisieren, beschrieben. Es werden Beobachtungen und Interviewantworten von Managern und von den Entscheidern in sechs kosmetischen Unternehm analysiert. Es wird gezeigt, dass Kosmetik Produkte hinsichtlich Marke, Verpackung und Etikett vereinheitlicht werden. Ferner wird gezeigt, dass der Grad der Produktevereinheitlichung einerseits durch intensivere Zusammenarbeit einzelner Abteilungen wie dem Marketing, der Produktion und der Führungsebene abzustimmen ist. Andererseits durch spezifische Zusammenarbeit zwischen Firmenleitung und Niederlassungen bzw. Tochtergesellschaften. Die Abhandlung schließt mit einer Diskussion über vollständige Produkt-Normierung oder Produktanpassung beim Eintritt in multikulturelle Märkte. 76 197 166 The scandinavian best-practice model and its cultural foundation - an approach The Scandinavian countries combine the world highest general government total outlays and tax revenue rates with best ratings in almost all important areas like employment, education, solide public finances, economic competitiveness, gender democracy, public health and environmental compatibility. They comply with the criteria of economic, social and ecological sustainability in a comparatively well balanced way. The article argues that the amazing vitality of the Scandinavian Welfare State can only be understood if one looks at the cultural base with its regulatory mechanisms. The connection between individualism, a female dominant value orientation and low power distance with concurrent low avoidance of insecurity and a long-term orientation provides the driving moment and intellectual capacity for a ?society game? that has other rules than those in the Anglo-Saxon countries or in Germany. The rules of ?either-or?, either more jobs or more poverty, either high social security or high innovative dynamics are dissolved in complementary relationships. They shape the thinking, the value orientation and the role which is attributed to the welfare state which is firmly embodied in the society. Neo-liberal vulgar economy has little chance in this cultural environment. Das skandinavische Erfolgsmodell und sein kulturelles Fundament 77 134 105 Industrials Policy and Industrial Relations in Baden-Württemberg: outhires of a new Field of Work In the face of changing action demands, emerging through profound organisational reforms on the company level, increasing economic competition and the deteriorating strength of the collective bargaining system, trade unions and employer/business organisations are anxious to define and engage in new fields of action. Concrete empirical initiatives of these actors can be found in the area of industrial policy. In this area a new field of work is being developed that is to be taken into account in the analysis of changes in the system of industrial relations since the definition of work conditions and work rules also takes place on this level. This development is being discussed in context of the example of the industrial relations system in Baden-Württemberg. Industriepolitik und industrielle Beziehungen in Baden-Württemberg 78 224 187 Measurement of the proton structure function F 2 at low Q 2 at HERA A measurement of the inclusive deep inelastic positron proton scattering cross-section at low momentum transfers squared Q2 between 0:2 GeV2 and 3:5 GeV2 and values of Bjorken x down to 3 ¢ 10¡5 is presented. Based on this the proton structure function F2, parameterising the quark composition of the proton, is extracted. Measurements at these low values of Q2 are particularly interesting since perturbative calculations based on Quantum Chromodynamics, the theory of the strong interaction, can no longer be performed and only phenomenological models are able to describe the proton structure. Experimentally this transition region can be accessed by shifting the interaction point of positrons and protons into the direction of the incoming proton. This possibility has been exploited in the year 2000 during a special running period of the HERA collider. The present analysis is based on data recorded with the H1 detector at that time. Compared to a similar data taking period in 1995 the statistical error of the data sample is smaller by a factor of two. Due to a detailed investigation of the systematic uncertainties a®ecting the measurement it has been possible to reduce the total error by almost the same amount. The improved precision should allow for a better constraint of the available phenomenological models. In der vorliegenden Arbeit wird eine Messung des inklusiven Wirkungsquerschnitts der tie¯nelastischen Positron-Proton-Streuung bei kleinen Viererimpulsübertragsquadraten Q2 zwischen 0:2 GeV2 und 3:5 GeV2 vorgestellt. Der minimal erreichbare Wert der Bjorken Skalenvariablen x beträgt dabei 3 ¢ 10¡5. Mit Hilfe der Messergebnisse wird die Protonstrukturfunktion F2 bestimmt, die den Quarkinhalt des Protons parametrisiert. Der analysierte Teil des Phasenraums ist von besonderem Interesse, da bei hinreichend kleinen Werten von Q2 störungstheoretische Vorhersagen im Rahmen der Quantenchromodynamik, der Theorie der starkenWechselwirkung, versagen und phänomenologische Modelle zur Beschreibung der Protonstruktur herangezogen werden müssen. Um diesen Übergangsbereich experimentell zugänglich zu machen, wurde der Wechselwirkungspunkt von Positronen und Protonen am HERA-Beschleuniger während einer speziellen Datennahmeperiode im Jahr 2000 in Richtung des einlaufenden Protons verschoben. Die mit dem H1-Detektor in diesem Zeitraum aufgezeichneten Daten bilden die Grundlage der durchgeführten Messung. Der statistische Fehler des Datensatzes ist um einen Faktor zwei kleiner als für eine entsprechende Datennahmeperiode im Jahr 1995. Aufgrund einer detaillierten Untersuchung der systematischen Unsicherheiten konnte der totale Messfehler um nahezu den gleichen Wert verringert werden. Die Messergebnisse sollen dazu beitragen, die freien Parameter der verfügbaren phänomenologischen Modelle mit höherer Präzision zu bestimmen. 79 448 365 Since the year 2000 all used industrial packagings with former chemical fillings are obliged to be recovered. Hazardous impacts on workers or the environment during the recycling process could not be excluded as used packagings for chemicals contain adhesions or residues of the former fillings. Information about the risks in these recycling processes, especially for the aquatic and terrestrial environment, were not available before this study. The aim of this research study was to assess the environmental risks of the recycling of industrial packaging waste. Therefore the material flow and the state of the art of the technical processes of packaging recycling were studied. The results show, that hazardous impacts on the environment primarily occur on the aquatic compartment, especially during the mechanical treatment of packaging waste. Afterwards the emission of endocrine disrupting alkylphenols like bisphenol A, 4-nonylphenol and 4-tert.-butylphenol were measured as representative contaminants. They are ingredients of widespread use in technical formulations like epoxy resins. The first step was the development of a robust analytical method with low limits of quantification for the determination of alkylphenols in different kinds of waste water This method relied on solid phase extraction with a clean-up step included, followed by derivatisation, while the final quantification was performed on GC-MS. The quantification was carried out by using internal standards thereby rendering the method independend from the sample matrix. Waste water samples from a recycling plant for packaging waste were analysed as well as from a representative municipal sewage treatment plant. Alkylphenols were determined in all samples. The concentrations in the waters from the recycling plant were 3-4 orders of magnitude higher than those found in sewage in- and effluent. The balance of these compounds showed that this recycling plant can produce ecotoxicologically relevant inputs to influents of municipal waste water treatment plants. Furthermore, the emission behaviour of alkylphenols from different polymerised epoxy formulations was examined. It has been shown, that hardening for more than 48 hours will reduce emissions drastically whereas fresh or incomplete hardened polymers release high concentrations of alkylphenols in water.Thereupon a risk assessment on emissions of alkylphenols from recycling plants was carried out. This indicated that there is a need to control and to reduce emissions of alkylphenols and other ecotoxic substances from packaging recycling into waste water. Hence, criteria were proposed to classify packaging waste as non hazardous or hazardous waste with special need of monitoring, due to the ecotoxicological properties of the former fillings and the established recycling processes. Additionally, recommendations for the cooperating companies are given on how to reduce emissions in daily practices. This includes technical installation in treatment plants as well as an handy labelling of packagings with instructions for empting and recycling. Erfassung von Schadstoffemissionen beim Recycling von Industrieverpackungen unter besonderer Berücksichtigung von Epoxidharzen 80 403 352 Photoemission microscopy and spectroscopy of cobalt-intercalated graphene on silicon carbide Graphene-ferromagnet interfaces possess remarkable properties like induced magnetism in the graphene film, increased magnetic anisotropy in the ferromagnetic film, and chiral magnetism. Previously, the graphene-ferromagnet interface was investigated mainly on metallic substrates. Yet, silicon carbide (SiC) is a promising graphene substrate due to its semi-insulating properties and its industrial relevance. This thesis investigates for the first time the intercalation of thin cobalt films underneath graphene on SiC with emphasis on the structural, chemical, and magnetic properties of the intercalated cobalt films. The 6H-SiC(0001) samples were prepared in an argon atmosphere in order to achieve a homogeneous, large-area growth of the (6 √ 3 × 6 √ 3) -R30∘ (hereafter 6 √ 3) surface reconstruction. The 6 √ 3 structure can be regarded as a graphene layer that is partly covalently bonded to the SiC substrate. It is expected that the 6 √ 3 structure converts into a graphene film upon intercalation. Cobalt films with thicknesses 𝑡Co in a range of 0.4–12 nm were deposited at room temperature, at which no reaction with the 6 √ 3 reconstructed SiC surface was observed. During a controlled annealing procedure, the temperature and film thickness dependence of the intercalation process was investigated in real time by ultraviolet photoemission electron microscopy (UV-PEEM). The intercalation temperature strongly depends on the film thickness with a minimum of 340 ∘C for 𝑡Co = 1.4 nm. Structural and chemical information are provided by low-energy electron diffraction (LEED) and x-ray photoelectron spectroscopy (XPS), respectively. A partial conversion of the 6 √ 3 reconstruction into a graphene film is found for low 𝑡Co, whereas a full conversion is observed for high 𝑡Co. The partial conversion is associated with an agglomeration of the cobalt film, as found by x-ray photoemission electron microscopy (X-PEEM) images with chemical contrast recorded at the Co L3-edge. Furthermore, using Si 2p XPS spectra and x-ray absorption spectra (XAS) of the Co L-edge extracted from the X-PEEM images, a self-limited cobalt silicide formation that is independent of 𝑡Co is found at the Co-SiC interface. The magnetic properties of the cobalt film are investigated by X-PEEM images with magnetic contrast recorded at the Co L3-edge. A self-assembled nanowire formation at the SiC step edges is observed for low 𝑡Co, while for intermediate 𝑡Co a step anisotropy dominates the magnetic domain structure, and a bulk-like magnetic domain structure is present for high 𝑡Co. Grenzschichten zwischen Graphen und ferromagnetischen Materialien besitzen bemerkenswerte Eigenschaften, wie zum Beispiel induzierter Magnetismus innerhalb des Graphen-Films, verstärkte magnetische Anisotropie innerhalb des ferromagnetischen Films und chirale magnetische Strukturen. Bislang wurde die Graphen- Ferromagnet-Grenzschicht hauptsächlich auf metallischen Substraten untersucht. Jedoch ist Siliziumkarbid (SiC) aufgrund seiner halb-isolierenden Eigenschaften und seiner industriellen Relevanz ebenfalls ein vielversprechendes Graphen-Substrat. Diese Arbeit befasst sich erstmalig mit der Interkalation von dünnen Kobalt-Filmen unter Graphen auf SiC, insbesondere mit den strukturellen, chemischen und magnetischen Eigenschaften der interkalierten Proben. Die 6H-SiC(0001) Proben wurden in einer Argon-Atmosphäre präpariert, um ein homogenes, großflächiges Wachstum der (6 √ 3 × 6 √ 3) -R30∘ (hiernach 6 √ 3) Oberflächen-Rekonstruktion zu erreichen. Die 6 √ 3 -Rekonstruktion kann als teilweise kovalent an das SiC gebundene Graphen- Schicht betrachtet werden. Es wird erwartet, dass die 6 √ 3-Struktur durch die Interkalation in einen Graphen-Film umgewandelt wird. Kobalt-Filme mit einer Schichtdicke 𝑡Co von 0.4–12 nm wurden bei Raumtemperatur aufgedampft, bei welcher keine Reaktion des Kobalts mit der 6 √ 3-Oberfläche beobachtet wurde. Während einer kontrollierten Erwärmung wurde die Temperatur- und Schichtdicken- Abhängigkeit des Interkalationsprozesses mittels Ultraviolett-Photoemissions-Elektronen- Mikroskopie (UV-PEEM) in Echtzeit untersucht. Die Interkalations-Temperatur hängt stark von der Kobalt-Schichtdicke ab, wobei das Minimum bei 340 ∘C für 𝑡Co = 1.4 nm liegt. Die strukturellen und chemischen Eigenschaften werden mittels niederenergetischer Elektronenbeugung (LEED) und Röntgen-Photoelektronenspektroskopie (XPS) untersucht. Hierbei wird für geringe Kobalt-Schichtdicken eine partielle Umwandlung der 6 √ 3-Struktur in eine Graphen-Schicht beobachtet, wobei eine vollständige Umwandlung erst bei höherer Schichtdicke erreicht wird. Die unvollständige Umwandlung hängt mit einem Zerfall der Kobalt-Schicht in Inseln zusammen, welcher mittels durch Synchrotronstrahlung angeregter Photoemissions- Elektronenmikroskopie (X-PEEM) nachgewiesen wurde. Hierbei wurden Aufnahmen mit chemischem Kontrast an der Co L3-Kante angefertigt. Weiterhin wird mittels XPS-Spektren des Si 2p-Signals und Röntgen-Absorptionsspektren (XAS) der Co LKante eine von 𝑡Co unabhängige, selbst-limitierte Bildung von Kobalt-Silizid an der Co-SiC-Grenzschicht festgestellt. Die magnetischen Eigenschaften der Kobalt- Filme werden mittels an der Co L3-Kante aufgenommenen X-PEEM-Aufnahmen mit magnetischem Kontrast untersucht. Für geringe 𝑡Co zeigt sich eine selbstassemblierte Bildung von Nanodrähten an den SiC-Stufenkanten, für mittleres 𝑡Co eine durch Stufen-Anisotropie dominierte Domänenstruktur und für hohes 𝑡Co eine dem Volumenkristall entsprechende Domänenstruktur. 81 798 678 On the Influence of Action Preparation on Steering Performance in a Lane Change Task Cognitive psychological experimental work on response preparation is generally conducted under highly controlled laboratory conditions. Adequate temporal as well as eventspecific preparation typically support the individual’s response preparation, for example in terms of reduced reaction times (RT) on imperative stimuli. By contrast, psychological research on driving tends to be conducted under realistic conditions, for example in the field or in sophisticated driving simulators. This research has largely overlooked the extent to which mechanisms of action preparation support the driver's reactions. Despite these two different approaches, the concept of action preparation should be highly applicable to vehicle steering, since driving requires the driver continuously to anticipate immediate and future traffic situations. Starting from this assumption, this dissertation’s first aim is to transfer basic experimental paradigms on action preparation – that is, temporal and event-specific preparation – into a driving task. Second, the predictions derived from cognitive psychological groundwork will be tested in this applied setting in order to replicate and enhance the corresponding findings. A priori it was not clear whether temporal and eventspecific preparation would lead to comparable results in a driving task, since a continuous driving task with complex bimanual steering movements is quite different from discrete single finger reactions in a typical laboratory task. Third, one of the basic paradigms on action preparation will be modified and transferred to an applied question in order to exemplify its usefulness for concrete problems in driving research. For these purposes, a lane change task was developed in a virtual reality environment. With the help of this experimental driving task, processes of temporal preparation as well as of event-specific preparation were examined in a first series of five experiments. Temporal preparation was implemented according to a variable foreperiod paradigm, while eventspecific preparation was realized according to the movement precuing and the response priming paradigm. Aside from measuring the reaction time (RT) on the imperative lane change signals, kinematic properties of the lane change steering wheel movement were evaluated. To this end, the entire lane change movement was divided into three submovements, the first two of which were eventually analyzed in terms of their velocity profiles. It was generally predicted that temporal and event-specific response preparation would reduce RTs and lead to result patterns comparable with evidence in the respective cognitive psychological literature. In keeping with the "movement integration"-hypothesis (Adam et al., 2000) and in accordance with the findings of van Donkelaar and Franks (1991a), kinematic effects were expected around the first peak steering wheel angle of the lane change steering wheel movement. Eventually, the sixth and seventh experiment served to examine the applied question whether a 3-dimensional conformal head-up-display (HUD) supports response preparation more effectively than a 2- or 2½-dimensional HUD. This experimental series produced a variety of results. With regard to the first five experiments, RT patterns known from basic research were replicated. More specifically, the effects of event-specific preparation were more pronounced than those of temporal preparation. Movement precuing led to the “precuing effect” – i.e., the more advance information on a lane change was available, the shorter the RT. Response priming led to the "validity effect": RT on neutrally prepared lane changes was longer than RT on validly prepared lane changes and shorter than RT on invalidly prepared lane changes. Temporal preparation always led to shorter RT than no preparation at all. But, contrary to the literature, the differences between different foreperiods were only shallow. Although unstable, interactions between temporal and event-specific preparatory processes occurred in two experiments. These results support the idea that both processes might mutually influence each other. Temporal preparation did not influence the kinematic properties of the steering wheel movement systematically, although event-specific preparation did. Movement precuing and response priming tended reliably to shorten the duration of the two kinematic phases centered around the first peak steering wheel angle. Since this shortening was not accompanied by increased costs in terms of lower steering quality, this modification was interpreted as increased movement efficiency. The results of Experiment 6 and 7 were not compliant with the hypotheses. Instead of conformal 3-dimensional HUDs, 2-dimensional HUDs tended to support response preparation most effectively. This effect is possibly due to the overlearned nature of simple 2-dimensional arrows. In conclusion, the thesis offers evidence for the relevance of concepts of response preparation for driving maneuvers. The RT results point to comparable mechanisms of information processing in simple RT tasks and more complex continuous bimanual steering tasks. Event-specific response preparation also seems to optimize response execution. Based on this evidence, future directions of this research might consist in further examining interactions between temporal and event-specific preparation, analyzing additional driving maneuvers in more realistic scenarios or making use of the lane change task as potential diagnostic tool. Kognitiv psychologische experimentelle Untersuchungen der Handlungsvorbereitung und der Bewegungsausführung finden gemeinhin unter hoch kontrollierten Bedingungen im Labor statt. Es ist allgemein anerkannt, dass adäquate zeitliche und inhaltliche Handlungsvorbereitung die Reaktion des Individuums unterstützen, was sich z.B. in verkürzten Reaktionszeiten auf imperative Stimuli zeigt. Verkehrspsychologische Forschung wird dagegen häufig unter realitätsnahen Bedingungen, z. B. im Feld bzw. in modernen Fahrsimulatoren durchgeführt. In diesem Forschungsbereich ist kaum untersucht, inwieweit Mechanismen der Handlungsvorbereitung die Reaktionen eines Fahrers unterstützen. Trotz der unterschiedlichen Ansätze erscheint das Konzept der Handlungsvorbereitung als durchaus anwendbar auf fahrerische Lenkbewegungen, da das Fahren an sich die stete Antizipation direkt bevorstehender bzw. zukünftiger Verkehrssituationen erfordert. Ausgehend von dieser Annahme verfolgt diese Dissertation drei Ziele. Erstens galt es, grundlagenorientierte experimentelle Forschungsparadigmen der Handlungsvorbereitung, insbesondere zeitliche und ereignisbezogene Vorbereitung, in eine anwendungsorientierte Fahraufgabe zu integrieren. Zweitens sollten grundlagenorientierte kognitionspsychologische Vorhersagen in dieser angewandten Umgebung getestet werden, um entsprechende Befunde zu replizieren bzw. zu erweitern. A priori besteht keine Sicherheit darüber, ob zeitliche und ereignisbezogene Vorbereitung tatsächlich zu mit den Grundlagen vergleichbaren Ergebnissen in einer Fahraufgabe führen, da sich eine kontinuierliche Fahraufgabe mit komplexen beidhändigen Lenkbewegungen deutlich von einer Einzelfingerreaktion in einer typischen Laboraufgabe unterscheidet. Drittens sollte eines der grundlagenorientierten Paradigmen modifiziert und anhand einer angewandten Fragestellung eingesetzt werden, um die Nützlichkeit grundlagenorientierter Forschungsparadigmen zur Untersuchung konkreter Probleme beispielhaft zu demonstrieren. Zu diesem Zweck wurde eine Spurwechselaufgabe in einem Labor für virtuelle Realität entwickelt. Mit Hilfe dieser experimentellen Fahraufgabe wurden zeitliche und ereignisbezogene Handlungsvorbereitungsprozesse in einer ersten Serie von fünf Experimenten untersucht. Zeitliche Vorbereitung wurde im Rahmen eines variablen Vorperiodenparadigmas implementiert, ereignisbezogene Vorbereitung in Übereinstimmung mit dem Movement Precuing bzw. dem Response Priming Paradigma. Neben der Reaktionszeit auf imperative Spurwechselsignale wurden kinematische Eigenschaften der Spurwechsellenkbewegung analysiert. Dazu wurde die gesamte Spurwechsellenkbewegung in drei Einzelbewegungen unterteilt, von denen letztlich die ersten beiden anhand ihrer Geschwindigkeitsprofile ausgewertet wurden. Grundsätzlich wurde vorhergesagt, dass zeitliche und ereignisbezogene Handlungsvorbereitung Reaktionszeitverkürzungen zur Folge haben und somit zu der Grundlagenliteratur ähnlichen Reaktionszeitmustern führen sollten. Darüber hinaus und übereinstimmend mit der "movement integration"-Hypothese (Adam et al., 2000) bzw. Ergebnissen von van Donkelaar und Franks (1991a) wurden kinematische Effekte um das erste Lenkwinkelmaximum der Spurwechsellenkbewegung erwartet. Schließlich dienten ein sechstes und ein siebtes Experiment der Untersuchung des angewandten Problems, ob ein 3-dimensionales kontaktanaloges Head-Up Display (HUD) die Handlungsvorbereitung effektiver als ein 2- oder 2½-dimensionales HUD unterstützt. Die Ergebnisse der Experimentalserie waren mannigfaltig. Im Hinblick auf die ersten fünf Experimente wurden grundsätzlich die aus den Grundlagen bekannten Reaktionszeitergebnisse repliziert. Spezifischer betrachtet zeigten sich deutlichere Effekte ereignisbezogener als zeitlicher Handlungsvorbereitung. Das Movement Precuing führte zum bekannten "precuing effect", d.h. mit zunehmender Vorinformation über einen anstehenden Spurwechsel verkürzten sich die Reaktionszeiten. Das Response Priming zog den bekannten "validity effect" nach sich, d.h. die Reaktionszeiten fielen für neutral vorbereitete Spurwechsel länger als für valide und kürzer als für invalide vorbereitete Spurwechsel aus. Zeitliche Vorbereitung führte zwar immer zu kürzeren Reaktionszeiten als gar keine Vorbereitung, aber die Unterschiede zwischen verschiedenen Vorperioden fielen im Gegensatz zu Grundlagenerkenntnissen nur gering aus. In zwei Experimenten ergaben sich zudem instabile Interaktionen zwischen zeitlicher und ereignisbezogener Handlungsvorbereitung. Diese Ergebnisse deuten daraufhin, dass sich beide Arten der Vorbereitung gegenseitig beeinflussen können. Im Gegensatz zu zeitlicher Handlungsvorbereitung hatte ereignisbezogene Handlungsvorbereitung einen systematischen Einfluss auf kinematische Eigenschaften der Lenkbewegung. Movement Precuing und Response Priming neigten zuverlässig dazu, die Länge der beiden kinematischen Phasen um das erste Lenkwinkelmaximum zu verkürzen. Diese Verkürzung wurde als erhöhte Effizienz der Lenkbewegung interpretiert, da sich keine zusätzlichen Kosten im Sinne einer schlechteren Steuerqualität ergaben. Die Ergebnisse der Experimente sechs und sieben fielen nicht hypothesenkonform aus. Anstelle des 3-dimensionalen HUDs unterstütze das 2-dimensionale HUD die Handlungsvorbereitung am effektivsten, was unter Umständen den überlernten einfachen zweidimensionalen Pfeilsymbolen zugeschrieben werden kann. Zusammenfassend belegt diese Dissertation die Relevanz der Handlungsvorbereitungskonzepte für Fahrmanöver. Die Reaktionszeitergebnisse weisen auf vergleichbare Mechanismen der Informationsverarbeitung bei einfachen Reaktionszeitaufgaben und komplexen, kontinuierlichen bimanuellen Steueraufgaben hin. Darüber hinausgehend scheint ereignisbezogene Handlungsvorbereitung auch der Optimierung der Bewegungsausführung zu dienen. Basierend auf diesen Hinweisen könnten sich weiterführende Studien auf die Interaktion zwischen zeitlicher und ereignisbezogener Handlungsvorbereitung, auf zusätzliche Fahrmanöver in realistischeren Szenarios oder auf den Nutzen dieser Spurwechselaufgabe als diagnostisches Instrument konzentrieren. 82 203 186 Charakterisierung gesputterter Dünnschichtelektroden auf Kunststoffoberflächen zum Einsatz in miniaturisierten Analysensystemen The development of miniaturized analytical systems, so called micro total analysis systems (µ-TAS) or Lab-on-a-chipTM-systems, has reached a state, where first commercial systems are available. Especially detection methods, which are robust, cheap and easy to integrate in a microchip, are of growing interest. The use of sputtered thin film electrodes enables the integration of electrochemical detection on plastic microchips, which meets this demands.The characterization of such sputtered thin film electrodes to be applied in miniaturized analytical devices was the aim of this work. The electrode systems were studied in terms of utilizability as high voltage and detection electrodes in capillary electrophoresis and isotachophoresis microchips. Special attention is turned to the adhesion layer of chromium under the noble metal electrodes of platinum and gold. The suitability of the sputtered gold thin film electrodes for long term measurements is studied using a new developed capillary electrophoresis microchip system.The characterization of the thin film electrodes is mainly carried out by electrochemical investigation techniques, such as electrochemical impedance spectroscopy, cyclic voltammetry and linear sweep voltammetry. Additionally, imaging measurement techniques such as atomic force microscopy and white light interferometry were used to study surface properties, x-ray photoelectron-spectroscopy was used to characterize the chemical structure of the thin films. Die Entwicklung von miniaturisierten Analysensystemen, den sogenannten Micro Total Analysis Systems (µ-TAS) bzw. Lab-on-a-chipTM-Systemen, hat mittlerweile ein Stadium erreicht, in dem erste kommerzielle Systeme verfügbar sind. Von steigendem Interesse bei solchen Systemen sind Detektionsmethoden, die einfach in einen Mikrochip integrierbar, robust in der Handhabung und preiswert herzustellen sind. Die Verwendung von gesputterten Dünnschichtelektroden ermöglicht die Integration elektrochemischer Detektionsverfahren auf Kunststoff-Mikrochips, die diese Anforderungen erfüllen können. Die Charakterisierung solcher gesputterten Dünnschichtelektrodensysteme auf Kunststoffoberflächen zum Einsatz in miniaturisierten Analysensystemen war Ziel der vorliegenden Arbeit. Die Elektrodensysteme wurden im Hinblick auf ihre Einsatzmöglichkeiten als Leistungs- und Detektionselektroden in Kapillarelektrophorese- bzw. Isotachophorese-Mikrochips untersucht. Besonderes Augenmerk wurde hierbei auf die Chrom-Haftschicht gelegt, die zur besseren Adhäsion der Edelmetallelektroden aus Platin und Gold verwendet wurde. Die Einsatzfähigkeit der Elektroden für Langzeitmessungen wurde mit einem neu entwickelten Mikrochipsystem auf Basis kapillarelektrophoretischer Trennung untersucht.Zur Charakterisierung der Dünnschichtelektroden wurden vor allem elektrochemische Untersuchungsmethoden wie die elektrochemische Impedanzspektroskopie, die Cyclovoltammetrie und die Linear Sweep Voltammetrie eingesetzt. Zusätzlich wurden bildgebende Oberflächentechniken wie die Rasterkraftmikroskopie und die Weißlichtinterferometrie, aber auch Röntgenphotoelektronenspektroskopie zur Charakterisierung des Schichtaufbaus dieser Elektroden eingesetzt. 83 720 703 Molecular simulation studies of peptide aggregation in small finite sized systems and near surfaces Protein aggregation is involved in various biological processes and is particularly associated with many diseases such as Alzheimer's, Parkinson's and type II Diabetes Mellitus. The aggregation of amyloidogenic proteins resulting in the formation of amyloid fibrils has been shown to follow a nucleated growth mechanism. The separation of an aqueous solution of a protein into solid fibrils and a saturated protein solution, in equilibrium with each other, is quite similar to the demixing phase transition of binary mixtures. As protein aggregation in cells is affected by various factors such as surfaces, the finite size of the cells and the presence of cosolutes, it is important to understand their effects on the aggregation process. Protein aggregation can be studied using computer simulations of model peptide fragments, which behave in a similar way as the parent proteins themselves. These studies can be very helpful in providing details at the molecular level. In this thesis, the effects of finite size, temperature, and the influence of surfaces on protein aggregation were studied. In any computer simulation studies involving phase transitions, finite size effects must be properly considered, before any attempt is made to extrapolate the results of the simulations to macroscopic systems. Therefore, the effect of finite size on peptide aggregation was studied by molecular dynamics simulations of aqueous solutions of peptide fragments, at various concentrations and system sizes. Three different parameters were used to quantify the aggregation process and calculate the degree of aggregation. The aggregation was enhanced with increasing the peptide concentration at a fixed system size, and with increasing the system size at a fixed peptide concentration. The observed decrease in the degree of peptide aggregation with decreasing system size was attributed to the appearance of an artificial state in which the minor phase, i.e. the peptide aggregate, was ``dissolved''. As the system size approaches macroscopic dimensions, this artificial state eventually disappears. Thus, at a concentration where an aqueous solution of peptides will form an aggregate in a macroscopic system, the aggregation of the peptides will be suppressed in small (microscopic) systems. There are two major implications of these studies: Firstly, the finite system size has a drastic effect on peptide aggregation and is responsible for the instability of aggregates consisting of only a few peptides, hence it must be considered in any simulation study designed to reproduce the aggregation in macroscopic systems. Secondly, if the real system of interest is not macroscopic and contains a relatively small number of peptides, their aggregation will be suppressed by the finite system size as well. This situation may be relevant in the case of peptides in small volumes, such as biological cells or their compartments, where it might be playing a significant role in the suppression of protein aggregation. The effect of temperature on peptide aggregation was studied using replica exchange molecular dynamics simulations. Upon cooling, the aqueous solution of peptides was found to undergo a transition from a one-phase state, where the peptides were completely dissolved in water, to a two-phase state, where the peptide aggregates are in equilibrium with the saturated solution of the peptides. Various properties of the peptide-water system showed a behavior similar to conventional first order phase transitions of fluids. The transition was smeared out due to the finite system size. The midpoint of the transition was located at ~ 415 K. The effect of hydrophobic and hydrophilic surfaces on peptide aggregation was studied by simulating aqueous solutions of peptides in slit-like pores. Two types of peptide fragments having an amino acid composition that renders them either hydrophobic or hydrophilic, were used in these studies. The adsorption of hydrophobic peptides onto hydrophobic surfaces was accompanied by enhanced aggregation and beta-sheet formation. The confinement of hydrophobic fragments in hydrophilic pores slightly increased their aggregation propensity, whereas confinement of hydrophilic fragments retarded their aggregation, irrespective of the nature of the surface. The studies presented in this thesis demonstrate the pronounced effects of finite size and surfaces on peptide aggregation. Based on the results obtained, qualitative predictions can be made for changes in peptide aggregation, both in small volumes and near surfaces, which could be helpful in understanding the process of peptide aggregation in biosystems and finding innovative ways to extend the shelf-life of protein-based pharmaceutical products. Die Aggregation von Proteinen spielt in verschiedenen biologischen Prozessen eine Rolle und wird insbesondere mit vielen Krankheiten wie Alzheimer, Parkinson oder Type II Diabetes Mellitus in Verbindung gebracht. Es wurde gezeigt, dass die Aggregation amyloidogener Proteine im Falle der Ausbildung von amyloiden Fibrillen einem keimbasierten Wachstumsmechanismus folgt. Die Aufspaltung einer wässrigen Proteinlösung in eine gesättigte Proteinlösung und feste Fibrillen, die sich miteinander im Gleichgewicht befinden, ist vergleichbar mit der Entmischung in binären Systemen. Weil die Proteinaggregation in Zellen zusätzlichen Einflüssen wie der Anwesenheit verschiedener Oberflächen und Cosolventien und einer begrenzten Zellgröße unterliegt, ist es wichtig, den Effekt dieser Einflüsse zu verstehen. Einen Beitrag zur Aufklärung kann auch durch Computersimulation von Modellpeptidfragmenten, die sich ähnlich verhalten wie das Protein, aus dem sie entnommen wurden, geleistet werden. Solche Studien haben den Vorteil, dass sie Informationen auf molekularer Ebene liefern können. In dieser Arbeit wurden die Auswirkungen einer endlichen Systemgröße, der Temperatur und der Wechselwirkung mit Oberflächen auf die Aggregation untersucht. In jeder Computersimulation, die sich mit Phasenübergängen beschäftigt, müssen Oberflächeneffekte in die überlegungen auf geeignete Weise einbezogen werden, bevor die Ergebnisse auf makroskopische Systeme übertragen werden können. Aus diesem Grunde wurde im Rahmen dieser Arbeit der Einfluss einer begrenzten Systemgröße auf die Aggregation von Peptiden mit Hilfe der molekulardynamischen Simulation wässriger Peptidlösungen unter Verwendung verschiedener Konzentrationen und Systemgrößen untersucht. In diesem Zusammenhang wurden drei verschiedene Parameter verwendet, um den Aggregationsprozess zu quantifizieren und den Aggregrationsgrad zu berechnen. Zunehmende Aggregationsgrade ließen sich durch Erhöhung der Peptidkonzentration bei gleich bleibender Systemgröße oder durch Erhöhung der Systemgröße bei gleich bleibender Peptidkonzentration erreichen. Die Abnahme des Aggregationsgrades mit der Abnahme der Systemgröße wurde auf das Auftreten eines künstlichen Zustandes zurückgeführt, in dem die weniger stark vertretene Phase, in diesem Fall das Peptidaggregat, beeinflusst wird. Sobald sich die Systemgröße an die Größe makroskopischer Systeme annähert, verschwindet dieser künstliche Zustand schließlich. Folglich wird eine Aggregation, die bei einer bestimmten Konzentration in einem makroskopischen System auftritt, bei der gleichen Konzentration in kleinen (mikroskopischen) Systemen unterdrückt. Aus den durchgeführten Studien ergeben sich hauptsächlich zwei Schlussfolgerungen: Zum einen hat die endliche Systemgröße einen drastischen Einfluss auf die Aggregation von Peptiden und ist verantwortlich für die Instabilität von Aggregaten, die aus nur wenigen Peptiden bestehen. Wie bereits oben angesprochen, muss dies bei der übertragung auf makroskopische Systeme berücksichtigt werden. Zum anderen ist auch klar, dass sobald ein reales nicht makroskopisches System von Interesse ist, die Aggregation ebenfalls durch die endliche Systemgröße unterdrückt werden kann. Dies mag im Falle von Peptiden in kleinen Volumina, wie zum Beispiel in biologischen Zellen oder deren Kompartimenten, von Bedeutung sein. Auf diese Weise könnte der begrenzten Systemgröße im Falle biologischer Zellen eine Schlüsselrolle bei der Verhinderung der Ausbildung von Der Einfluss der Temperatur auf die Aggregation von Peptiden wurde mittels replica exchange-molekulardynamischer Simulation betrachtet. Während des Abkühlens durchlief die wässrige Proteinlösung einen übergang von einem einphasigen Zustand, in dem die Peptide vollständig in Wasser gelöst sind, zu einem Zustand, in dem sich eine feste Phase (Peptidaggregat) mit einer flüssigen Phase (wasserreiche Peptidlösung) im Gleichgewicht befindet. Das Peptid-Wasser-System zeigte ein mit einem Phasenübergang erster Ordnung in Flüssigkeiten vergleichbares Verhalten. Allerdings war der Phasenübergang durch den Effekt einer endlichen Systemgröße verschmiert. Der Mittelpunkt des übergangs war bei ~ 415 K zu finden. Die Auswirkung hydrophober und hydrophiler Oberflächen auf die Aggregation von Peptiden wurde untersucht, indem eine molekulardynamische Simulation der Peptidlösung zwischen zwei unendlich ausgedehnten Platten durchgeführt wurde. Hierzu wurden zwei Peptidfragmente verwendet, die sich so in ihrer Aminosäuresequenz unterscheiden, dass sie jeweils entweder eher hydrophile oder eher hydrophobe Eigenschaften aufwiesen. Im Falle des hydrophoben Peptids führte die Adsorption an einer hydrophoben Oberfläche zur erhöhten Aggregation und Ausbildung von beta-Faltblattstrukturen. Beim Einschluss hydrophober Peptide zwischen hydrophilen Oberflächen wurde hingegen nur ein leichter Anstieg der Aggregationstendenz verzeichnet. Für hydrophile Proteine konnte unabhängig von der Art der Oberfläche festgestellt werden, dass die Aggregationstendenz leicht zurückging. Zusammengefasst demonstrieren die Ergebnisse dieser Arbeit den deutlichen Einfluss von endlicher Systemgröße und Oberflächen auf die Aggregation von Peptiden. Auf Basis dieser Ergebnisse lassen sich qualitative Vorhersagen über das Aggregationsverhalten in kleinen Volumina oder in der Nähe von Oberflächen machen. Dies könnte schließlich dabei helfen, den Prozess der Aggregation in biologischen Systemen besser zu verstehen und neue, innovative Wege zu finden, die Lebensdauer von proteinbasierten pharmazeutischen Produkten zu verlängern. 84 179 161 Stark korrelierte Quantenstörstellensysteme: der Übergang von einer einzelnen Störstelle zu einem periodischen Gitter In this thesis, the numerical renormalization group (NRG) is used to solve several quantum impurity systems, which primarily differ in the number of correlated impurities under consideration. A combination of the NRG and the density functional theory (DFT) is applied to calculate the spectral functions of a metal-molecule-complex, composed of a single naphthalene-tetracarboxylic-acid-dianhydride (NTCDA) molecule adsorbed on a silver Ag(111) surface, and explains the inelastic contributions observed by experimental scanning tunneling spectroscopy. The theoretical modulations as well as the numerical simulations are generalized in order to study multi impurity problems and a detailed analysis of the well established two-impurity Anderson model enables the derivation of an effective low-energy model. This approach is generalized to models with an arbitrary number of impurities and used to study different phases and phasetransitions in multi-impurity systems. Moreover, the question to what extent the physical effects and mechanisms of a single magnetic impuritie in a metal can be adopted in a periodic extension of the model is discussed. These models are frequently used to describe the basic properies of certain materials, the Heavy Fermions. In dieser Arbeit werden verschiedene Quantenstörstellensysteme mithilfe der numerischen Renormierungsgruppe (NRG) behandelt. Die betrachteten Modelle unterscheiden sich dabei vor allem durch die Anzahl der berücksichtigten Störstellen. Eine Kombination der NRG und der Dichtefunktionaltheorie (DFT) wird dazu verwendet, die Spektralfunktionen eines Metall-Molekül-Komplexes, bestehend aus einem Naphthalin-tetracarbonsäure-dianhydrid (NTCDA) Molekül auf einer Silber Ag(111)-Oberfläche, zu berechnen und die inelastischen Beiträge bei der Rastertunnelspektroskopie zu erklären. Die theoretische Modellierung und die numerische Simulation wird auf Probleme mit mehreren korrelierten Störstellen erweitert und eine detaillierte Analyse des etablierten Zweistörstellen-Anderson-Modells ermöglicht die Ableitung eines effektiven Niedrigenergiemodells. Diese Näherung wird auf Systeme mit beliebig vielen Störstellen verallgemeinert und verwendet, um verschiedene Phasen und Phasenübergänge in Multistörstellensystemen zu untersuchen. Unter anderem wird die Frage diskutiert, inwieweit die Effekte und Mechanismen der Physik einer einzelnen magnetischen Störstelle auf eine periodische Erweiterung des Modells, mit dessen Hilfe die grundlegenden Eigenschaften der Materialien der Schwere-Fermionen-Verbindungen beschrieben werden, übertragbar sind. 85 217 199 Control of orbital angular momentum of exciton polariton condensates The goal of this work is to investigate the use of exciton polariton vortices for all optical information processing. To achieve this goal, we develop a novel technique based on sorting orbital angular momentum states of light, which allows for detecting and temporally tracing vortices in a light beam. We successfully implement and benchmark this technique and apply it to demonstrate the spontaneous formation of exciton polariton vortices inside all optically excited annular trapping potentials in a GaAs based microcavity. Subsequently we investigate the temporal dynamics of this formation process, which is strongly dependent on excitation power. Our experimental results show the simultaneous and statistically independent formation of vortex modes with topological charges m = −1 and m = +1. We gain further insight into the temporal dynamics of all arising modes by theoretically modeling our experimental results. Furthermore, in some cases vortices show spin-orbit coupling between their orbital angular momentum and their spin, which corresponds to the circular polarizations σ+ and σ-. In the final stage of our experiments, we experimentally verify the theoretical prediction that the topological charge of exciton polariton vortices may be flipped by perturbing them with a pulsed laser. Thereby we demonstrate the potential use of exciton polariton vortices as all-optical information storage. Das Ziel dieser Arbeit ist die Untersuchung von potenziellen Anwendungen von Vortizes in einem Exziton-Polariton System für die optische Informationsverarbeitung. Um diese Vortizes zu untersuchen, entwickeln wir eine neuartige Spektroskopiemethode, welche auf einer optischen Transformation zur Sortierung von Drehimpulszuständen des Lichts basiert und uns die Detektion und zeitliche Beobachtung von Vortizes in einem Lichtstrahl ermöglicht. Wir implementieren diese Technik und wenden sie erfolgreich an, um die spontane Bildung von Exziton-Polariton-Vortizes innerhalb einer rein optisch erzeugten Ringfalle in einer GaAs basierten Mikrokavität nachzuweisen. Anschließend untersuchen wir die zeitliche Dynamik dieses Bildungsprozesses, welcher sich stark mit der Anregungsleistung ändert. Unsere experimentellen Ergebnisse zeigen die gleichzeitige und statistisch unabhängige Bildung von Vortizes mit den topologischen Ladungen m = −1 und m = +1. Durch theoretische Modellierung des Exziton-Polariton Systems gewinnen wir tiefergehende Erkenntnisse über die zeitliche Dynamik aller auftretenden Moden. Weiterhin zeigen die untersuchten Vortizes in einigen Fällen eine Spin-Bahn-Kopplung zwischen ihrem Drehimpuls und ihrem Spin, welcher den zirkularen Polarisationen σ+ und σ- entspricht. Im letzten Schritt unserer Experimente verifizieren wir die theoretische Vorhersage, dass der Drehsinn von Vortizes durch gezielte optische Manipulation mit zusätzlichen Laserpulsen umgeschaltet werden kann. Damit zeigen wir den potenziellen Nutzen von Exziton-Polariton-Vortizes als rein optische Informationsspeicher auf. 86 154 128 Echtzeitsteuerung komplexer Systeme - Eine Simulationsstudie For this study we developed a traffic simulation based on the simulator SimCo and ran different governance scenarios regarding the effects of the distribution of real-time traffic data among drivers. The scenarios were based on interviews with experts from different fields, including a navigation service provider, the German federal highway research institute, and public transport providers. We found that a coordi-nated form of governance between private firms and local authorities is in their mu-tual interest. To analyse the impact of such a coordinated mode of governance, two scenarios were implemented. At first drivers would get real-time traffic information and secondly, they would also get emission information and change their route ac-cordingly. We found that the use of real-time data does decrease traffic jams, and thus increases network efficiency, but also slightly increases emissions. Against the expectations of the interviewees, a coordinated form of governance could not reduce emissions, but helped distribute them more evenly. Für diese Studie wurde eine Verkehrssimulation, basierend auf dem Simulator SimCo, entwickelt. In dieser Simulation wurden verschiedene Szenarien getestet, um die Effekte von Echtzeitsteuerung im Verkehrsnetz zu untersuchen. Die Szenarien basieren auf Experteninterviews mit Vertretern eines Navigationsdienstleisters, der Bundesanstalt für Straßenwesen (BASt) und Betreibern des öffentlichen Verkehrs. Alle Beteiligten befürworteten eine koordinierte Form der Steuerung des Straßenverkehrs. Diesen koordinierten Modus haben wir in der Simulation implementiert. Zunächst bekamen die Agenten Echtzeitinformationen über die Verkehrssituation und später auch Emissionsinformationen. Wir konnten zeigen, dass Echtzeitinformationen zu einer deutlichen Senkung von Staus, also einer höheren Netzeffizienz, führten. Damit einher ging allerdings eine leichte Steigerung der Emissionen. Entgegen den Erwartungen konnte der koordinierte Modus keine deutlichen Emissionssenkungen hervorrufen. Eine Senkung von Emissionsspitzen konnte jedoch erreicht werden. 87 182 122 Integration with power. On gender equality micropolicy in companies Experience with the implementation of complex support programmes for women has sometimes led to disillusionment; sometimes it has also led to a more realistic understanding of the relevance of formal agreements, and of the way decisions are actually reached in companies. This paper explores the strategical and micropolitical dimensions of gender equality policies in companies. Drawing on organization research, and more specifically on political theory and theory of power, it discusses both relevant findings of power research and findings of an empirical study, carried out by the author, on the specific features of negotiating and decision making processes in the context of policies to support women. The analysis shows that the most useful strategy for those involved in gender equality policies is a consensus-based strategy which is capable at the same time of handling conflicts. The ability to deal with conflicts is especially needed on the micro level of direct interaction, whereas the strategic planning and the implementation of gender equality policies seem to require a more consensus-oriented attitude in all actors involved. Integration mit Macht 88 177 153 Modeling and control of multi-elastic-link robots under gravity Die Elastizität in den Armkörpern von Robotern und vergleichbaren Maschinen wird häufig als unerwünschter Effekt gesehen. Die Motivation der vorliegenden Arbeit entstammt einer dazu gegensätzlichen Sichtweise. Die Idee besteht darin, dem Roboter über die Ausnutzung der intrinsischen Nachgiebigkeit die Fähigkeit zur Wahrnehmung von Kontaktkräften zu verleihen und zugleich die Eigenmasse der gesamten Armstruktur zu reduzieren. Die zugrundeliegende Hypothese formuliert damit, dass die elastischen Eigenschaften der Armkörper nicht zwingend als Problem im Sinne einer Verschlechterung der Positioniergenauigkeit sowie einer Verlängerung von Ausregelzeiten gesehen werden müssen. Die vorliegende Arbeit leistet einen Beitrag zur Schwingungsdämpfung und Endeffektor-Positionierung in Gegenwart von last- und konfigurationsabhängigen statischen Verbiegungen für einen mehrgliedrigen gliedelastischen Roboterarm. Die erarbeiteten theoretischen Konzepte werden durch ausgiebige experimentelle Ergebnisse untermauert. Daran anknüpfend demonstriert die Arbeit die praktische Realisierbarkeit der Detektion von Kontaktkräften mit dem mehrgliedrigen gliedelastischen Roboterarm unter Gravitationseinfluss. Die behandelten Szenarien umfassen unvorhergesehene beziehungsweise unbeabsichtigte Kollisionen, wie auch beabsichtigte Kontakte im Sinne einer physischen Mensch-Roboter-Interaktion. 89 442 410 Classification rules in standardized partition spaces Klassifikationsregeln in standardisierten Partitionsräumen In this work we propose to represent classification rules ina so-called standardized partition space. This offers a unifying framework for the representation of a wide variety of classification rules.Standardized partition spaces can be utilized for any processing of classification rules that goes beyond their primal goal, the assignment of objects to a fixed number of classes on the basis of observed predictor values.An important secondary goal in many classification problemsis to gain a deeper understanding of the relationship between the predictors and the class membership. A standard approach in this respect is to look at the induced partitions by means of the decision boundaries in the predictor space.The comparison of partitions generated by different classification methods for the same problem is performed to detect procedure-invariantly confirmed relations. In general, such comparisons serve for the representation of the different potential relationships methods can model.In high-dimensional predictor spaces, and with respect to a wide variety of classifiers with largely diverse decision boundaries, such a comparison may be difficult to understand.In these cases, we propose not to use the predictor space as a constant entity for the comparison but to standardize decision boundaries and regions - and to compare the classification rules with respect to the different patternsthat are generated by placing examples from some test set in these standardized regions.This is possible for any rule that bases its assignment on some transformation of observed predictor values such thatthese transformations asses the membership of the corresponding object in the classes. The main difficultyis an appropriate scaling of membership values such that membership values of different classification methods are comparable in size. We present a solution to this problem.Given appropriately scaled membership values we can rank classification rules not only with respect to their ability to assign objects correctly to classes but also with respect to their ability to quantify the membership of objects in classes reliably. We introduce measures for the evaluation of the performance of classification rules in this respect.In designed simulation study we realize a comparativestudy of classification rules to demonstrate the possibilities of the suggested method.Another important secondary goal is the combination of the evidence on the class membership with evidence from other sources. For that purpose, we also propose to scalemembership values into the standardized partition space. Only in this case, the goal of the scaling is not the comparability to other classification rules, but the compatibility with the information from other sources. Therefore, we present an additional scaling procedurethat weights current membership information of objects in classes with information about past memberships in dynamic domains. In a simulation study, various combination strategies are compared. In dieser Doktorarbeit werden so genannte standardisierte Partitionsräume eingeführt, um Klassifikationsregeln darzustellen. Diese bieten ein übergreifendes Bezugssystemzur Darstellung einer Vielzahl unterschiedlicher Klassifikationsregeln.Der ursprüngliche Verwendungszweck von Klassifikationsregeln ist die Zuweisung von Objekten in genau eine von mehreren fest vorgegebenen Klassen auf Grund der Beobachtung bestimmter Prädiktorwerte an den Objekten. Standardisierte Partitionsräume können genutzt werden, wann immer man Klassifikationsregeln über dieses primäre Ziel hinaus einsetzen möchte.So möchte man zum Beispiel in vielen Klassifikationsproblemen das Verständnis über den Zusammenhang von Prädiktoren und Klassenzugehörigkeit vertiefen. Eine gängige Methode dafür beruht auf der Betrachtung der von Klassifikationregeln ableitbaren Partitionsräume an Hand der Entscheidungsgrenzen im Prädiktorraum. Ein Vergleich der Partitionen verschiedener Verfahren für das gleiche Problem wird vorgenommen, um verfahrensinvariant bestätigte Zusammenhänge zu finden.Im allgemeinen wird mit solchen Vergleichen dargestellt, welche unterschiedlichen Beziehungen Verfahren überhaupt modellieren können. In hochdimensionalen Räumen, und für Klassifikationsregeln, die mit sehr unterschiedlichen Verfahren generiert wurden, können Vergleiche von Partitionen unverständlich werden.In diesen Fällen schlagen wir vor, nicht den Prädiktorraum als gleich bleibende Größe im Vergleich einzusetzen, sonderndie Entscheidungsgrenzen und -gebiete zu standardisieren. Klassifikationregeln werden dann im Hinblick auf die verschiedenen Muster verglichen, die sie bei der Platzierung von Objekten eines Testdatensatzes in diesen standardisieren Gebieten erzeugen.So kann man mit allen Klassifikationsregeln vorgehen, deren Zuordnung von Objekten in Klassen auf einer Transformationder am Objekt beobachteten Prädiktorwerte beruht mit der die Zugehörigkeit des Objektes in den Klassen bewertet wird.Die Hauptschwierigkeit besteht in einer angemessenen Skalierung von Zugehörigkeitswerten, so dass Zugehörigkeitswerte, die mit verschiedenen Klassifikationsverfahren gewonnen werden, direkt miteinander verglichen werden können. Eine Lösung dieses Problems wird in der Arbeit vorgelegt.Mit angemessen skalierten Zugehörigkeitswerten können Klassifikationsregeln nicht nur bezüglich ihrer FähigkeitObjekte richtig zu klassifizieren bewertet werden, sondern auch hinsichtlich ihrer Fähigkeit, die Zugehörigkeit von Objekten in Klassen zuverlässig zu quantifizieren. In der Arbeit werden Maße zur Beurteilung dieser Fähigkeit vorgestellt.In einer versuchsgeplanten, komparativen Simulationsstudie werden die Möglichkeiten der eingeführten Methode aufgezeigt.Neben der Analyse des Zusammenhangs von Prädiktoren und Klasse ist ein weiteres wichtiges sekundäres Ziel dieVerknüpfung von Evidenz über die Klassenzugehörigkeit mit anderen Quellen. Auch zu diesem Zwecke empfiehlt es sich, Zugehörigkeitswerte in den standardisierten Partitionsraum zu skalieren. In diesem Falle ist das Ziel der Skalierung jedoch nicht die Vergleichbarkeit mit anderen Klassifikationregeln, sondern die Vereinbarkeit mit der Information aus den anderen Quellen. Für die Kombination der Information über aktuelle Zugehörigkeit mit Information über vergangene Zugehörigkeitenin zeitabhängigen Strukturen wird deshalb eine weitere Skalierungsmethode vorgestellt, mit der diese beiden Informationen geeignet gewichtet werden. In einer Simulationsstudie werden verschiedene Kombinationsmethoden miteinander verglichen. 90 282 242 Monitoring the high energy universe Die Hochenergie-Gammaastronomie erlaubt es, die extremsten Phänomene in unserem Universum zu untersuchen: Supernovae und ihre Überreste sowie supermassive schwarze Löcher in den Zentren weit entfernter Galaxien. Das First G-APD Cherenkov Telescope (FACT) ist ein kleines, bildgebendes, atmosphärisches Tscherenkow Teleskop, dass seit Oktober 2011 auf dem Roque de los Muchachos, La Palma, Spanien beobachtet. Es ist auf die Langzeitbeobachtung der hellsten bekannten Gammastrahlungsquellen spezialisiert. In dieser Arbeit stelle ich eine neue, öffentliche Analysekette für die von FACT aufgenommen Daten vor. Ein Hauptaugenmerk wurde auf die Reproduzierbarkeit und die Verwendung moderner, gut getesteter und weit verbreiteter Methoden gelegt. Die integrale Sensitivität von FACT wurde im Vergleich zu früheren Analysen um 45 % gesteigert, hauptsächlich durch die Einführung einer verbesserten Methode zur Bestimmung der Herkunft der Gammastrahlung, sowie durch viele weitere, kleinere Verbesserungen in der Vorverarbeitung. Die Sensitivität wurde sowohl auf simulierten Daten als auch auf Beobachtungen des Krebsnebels, der Standardkerze der Gammaastronomie, ausgewertet. Ein weiterer Vorteil der neuentwickelten Analysekette ist ihre Unabhängigkeit von Annahmen über eine bekannte Punktquelle. Dies ermöglicht die Erstellung von Himmelskarten, die Analyse von Beobachtungen, bei denen die Quellposition nicht genau bekannt ist und das Speichern und Veröffentlichen rekonstruierter Ereignisse im nun standardisiertem Datenformat für offene Gammaastronomie. Die hat die Publikation der ersten gemeinsamen Analyse von Krebsnebel-Daten von vier aktuell beobachtenden Tscherenkow-Teleskopen ermöglicht. Der zweite, kleinere Teil dieser Arbeit beschäftigt sich mit der Robotisierung von FACT, welches nun das erste Tscherenkow-Teleskop ist, für dessen reguläre Observationen kein Personal mehr benötigt wird. 91 226 198 Optimierter Brennstoffzellen-Wechselrichter für den Netz- und Inselbetrieb Employing fuel cells for the decentral cogeneration of thermal and electrical energy offers an efficient way of primary energy utilisation. The electrical energy is injected into the public grid by means of an inverter. For a fuel cell grid inverter, the characteristics of the fuel cell, the thermally controlled operation mode and the technical and regulatory constraints of the grid connection result in special requirements which have to be met in order to guarantee reliable, safe and cost-effective operation. In the presented work, a suitable structure and mode of operation for a fuel cell inverter is determined and the control of its operation by means of a digital signal processor is described. Due to the effect of current ripple on the fuel cells lifetime, the inverters input current is examined and optimisation options are developed. The aspects of grid connection are reviewed, particulary in regard to islanding detection and grid improvement (virtual power plant) options. For outages of the public grid, an additional grid independent island mode is implemented. For the cogeneration of electric and thermal energy, the fuel cells operation point is determined based on the required amount of heat; the control aspects of this mode of operation are analysed. In order to test the aquired solutions, a fuel cell inverter prototype is realised. With the prototype, options for increasing the electrical efficiency are demonstrated. Die Verwendung von Brennstoffzellen zur dezentralen Erzeugung von thermischer und elektrischer Energie (Kraft-Wärme-Kopplung) ermöglicht eine effiziente Nutzung der Primärenergie. Hierbei wird die erzeugte elektrische Energie mittels eines Wechselrichters an das öffentliche Netz abgegeben. Für einen Brennstoffzellen-Netzwechselrichter ergeben sich aufgrund der Eigenschaften der Brennstoffzelle, der wärmegeführten Betriebsart und der technischen und rechtlichen Randbedingungen bei der Netzanbindung besondere Anforderungen, die erfüllt werden müssen um einen zuverlässigen, sicheren und wirtschaftlich sinnvollen Betrieb zu gewährleisten. In der vorliegenden Arbeit wird hierfür eine geeignete Struktur und Funktionsweise eines Brennstoffzellen-Wechselrichters bestimmt und die Steuerung des Betriebsablaufs mittels eines digitalen Signalprozessors beschrieben. Aufgrund des Einflusses der Stromwelligkeit auf die Brennstoffzellen-Lebensdauer wird die Welligkeit des vom Wechselrichter aufgenommenen Stromes betrachtet und Optimierungsmöglichkeiten erarbeitet. Die Netzanbindung wird insbesondere unter den Aspekten einer sicheren Netzausfallerkennung und der Netzunterstützung im Rahmen eines virtuellen Kraftwerks betrachtet; weiterhin wird für den Fall einer Versorgungsunterbrechung aufgrund eines Netzausfalls ein optionaler netzunabhängiger Inselbetrieb realisiert. Im Rahmen der Kraft-Wärme-Kopplung wird die Brennstoffzelle wärmegeführt betrieben; die steuerungs- und regelungstechnischen Aspekte dieser Betriebsart werden betrachtet. Zur Erprobung der erarbeiteten Lösungen wird ein Prototyp eines Brennstoffzellen-Wechselrichters realisiert. Anhand des Prototypen werden Optimierungsmöglichkeiten demonstiert, um einen hohen elektrischen Wirkungsgrad zu erreichen. 92 338 295 Integrativer Ansatz zur Identifizierung neuer, prognostisch relevanter Metagene mittels Clusteranalyse In Germany, breast cancer is the most common leading cause of cancer deaths in women. To gain insight into the processes related to the course of the disease, human genetic data can be used to identify associations between gene expression and prognosis. In the course of the several clinical studies and numerous microarray experiments, the enormous data volume is constantly generated. Its dimensionality reduction of thousands of genes to a smaller number is the aim of the so-called metagenes that aggregate the expression data of groups of genes with similar expression patterns and may be used for investigating complex diseases like breast cancer. Here, a cluster analytic approach for identification of potentially relevant metagenes is introduced. In a first step of the approach, gene expression patterns over time of receptor tyrosine kinase ErbB2 breast cancer MCF7 cell lines to obtain promising sets of genes for a metagene calculation were used. Three independent batches of MCF7/NeuT cells were exposed to doxycycline for periods of 0, 6, 12 and 24 hours as well as for 3 and 14 days in independent experiments, due to association of the oncogenic variant of ErbB2 overexpression in breast cancer with worse prognosis. With cluster analytic approaches DIB-C (difference-based clustering algorithm) and STEM (short time-series expression miner) as well as with the finite and infinite mixture models gene clusters with similar expression patterns were identified. Two non-model-based algorithms – k-means and PFP (penalized frame potential) – as well as the model-based procedure DIRECT were applied for the method comparisons. Potentially relevant gene groups were selected by promoter and Gene Ontology (GO) analysis. The verification of the applied methods was carried out with another short time-series data set. In the second step of the approach, this gene clusters were used to calculate metagenes of the gene expression data of 766 breast cancer patients from three breast cancer studies and Cox models were applied to determine the effect of the detected metagenes on the prognosis. Using this strategy, new metagenes associated with metastasis-free survival patients were identified. In Deutschland ist Brustkrebs die häufigste Krebserkrankung bei Frauen. Durch zahlreiche klinische Studien auf diesem Gebiet konnte festgestellt werden, dass die veränderten Gene zwar nicht zwangsläufig zum Ausbruch der Krankheit führen, deren Expressionen jedoch näher analysiert werden sollten, um das Karzinom rechtzeitig zu erkennen und dadurch bessere Therapien zu ermöglichen. Hierbei wird durch die Microarray-Experimente ein enormes Datenvolumen generiert, deren Dimensionsreduktion von mehreren Tausend Genen zu einer deutlich kleineren Anzahl angestrebt wird. Eine Möglichkeit bieten die sogenannten Metagene, zu denen Gene mit ähnlichen Expressionen zusammengefasst werden können und die sich als prognostische Faktoren für das Überleben der Patienten erwiesen haben. In der vorliegenden Arbeit wird ein neuer integrativer Ansatz zur Clusterung kurzer Expressionszeitreihen zur Identifizierung prognostisch relevanter Metagene vorgestellt. Der erste Teil des Ansatzes beruht auf der Analyse humaner Mammakarzinom-Zelllinien MCF7. Die onkogene Variante der Rezeptortyrosinkinase ErbB2, deren Überexpression mit einer schlechteren Prognose assoziiert ist, wurde in diesen MCF7-Zelllinien induziert und zu den Zeitpunkten 0, 6, 12 und 24 Stunden sowie und 3 und 14 Tagen nach der Induktion beobachtet. Mit den Clusteranalyseansätzen DIB-C (difference-based clustering algorithm) und STEM (short time-series expression miner) sowie mit den finiten und den infiniten Mischungsmodellen werden hier Gengruppen mit ähnlichen Expressionsverläufen identifiziert. Als Vergleichsmethoden werden die nicht-modellbasierten Algorithmen k-means und PFP (penalized frame potential) und das in R implementierte Tool DIRECT als modellbasierter Vergleich zur Analyse herangezogen. Mit der Gene Ontology (GO) - bzw. Promoteranalyse werden die biologisch interessantesten Cluster ermittelt. Zur Verifizierung der hier angewendeten Methoden wird ein weiterer Datensatz mit Expressionswerten kurzer Zeitreihen erfolgreich herangezogen. Im zweiten Teil des Ansatzes werden für diese Gruppen Metagene gebildet und auf ihre prognostische Relevanz in den Brustkrebsdaten von 766 Patientinnen mittels Überlebenszeitanalyse untersucht und so neue biologisch relevante Cluster aufgedeckt. 93 672 603 Variational and perturbative extensions of continuous unitary transformations for low-dimensional spin systems The emergence of complex behavior out of simple elementary building blocks is a typical property of condensed matter systems. While the individual constituents may be well-studied, strongly interacting many-particle systems can give rise to novel collective behavior that can not be understood by considering the individual properties alone. Effective models are a powerful tool to handle this complexity: Instead of aiming at a full description a complex many-particle system on the high-energy scale, an effective model covers only those degrees of freedom which are essential for the low-energy physics. While the high-energy degrees of freedom are integrated out, they influence the low-energy degrees of freedom due to a renormalization of the effective coupling constants. In particular, the concept of the quasi-particle allows for the description of a strongly-interacting many-particle excitations in terms of a simple objects with similar degrees of freedom as a dispersive elementary particle, which gives rise to phenomena like quasi-particle bound states or quasi-particle decay. This thesis aims at the application and methodological improvement of a systematic and well-controlled framework to derive effective low-energy models, denoted as Continuous Unitary Transformations (CUT). In this method, a Hamiltonian is mapped continuously to an effective basis, in which the low-energy degrees of freedom can be interpreted as quasi-particles. Mathematically, the transformation is parametrized by a flow parameter and is represented as a differential equation, denoted as flow equation, while the direction of the transformation is controlled by the generator scheme. As foundation of our studies, we use the sCUT method, in which the types of possible interaction terms are fixed by a truncation scheme. In a common project, we established a new flavor of CUT, called epCUT. It allows us to derive the effective Hamiltonian in a perturbation series. In contrast to the already existent pCUT method, epCUT can handle system with a non-equidistant spectrum as well. Moreover, we discovered the deepCUT method, the non-perturbative twin of epCUT. While it bears large similarities to sCUT, it replaces the cumbersome definition of an appropriate truncation scheme by the order of the flow equation system. Compared to sCUT, deepCUT offers a larger robustness while the ambiguities of the truncation scheme are eliminated. My contribution comprises the computational, parallelized construction of the flow equation system as well. In another project, we investigated the breakdown of the conventional, particle-sorting generator schemes in system with strongly overlapping quasi-particle sub-spaces and identified the emergence of a spectrum unbounded from below due to truncation errors as origin of the divergence. As a testing ground, we used a system of two coupled bosonic degrees of freedom. To overcome these problems, we developed a family of three novel variational generator schemes, denoted as scalar, vectorial and tensorial optimization. After this, we investigated the dimerized, two-dimensional S=1/2 Heisenberg model with an emphasis on the quantum phase transition between a magnetically disordered and a magnetically ordered phase using sCUT. Parametrizing the starting point by a variational parameter, we were able to describe the spontaneous breaking of the SU(2) spin symmetry by CUT for the first time. We were able to calculate the ground state energy and the dispersion of triplons, and magnons, respectively, in both phases. However, we were not able to provide quantitative results for the spontaneous magnetization. Furthermore, we found a way to derive an optimal starting point for the integration of the flow equations that is independent on the particularities of the model and does not require a parametrization by a variational parameter. As a further application, we analyzed the S=1 Heisenberg chain by means of deepCUT. To this end, we mapped the system to an extended S=1/2 Heisenberg ladder with the help of a variational parameter. Using the variational generator schemes developed before, we were able to decouple the low-energy spectrum and to calculate spectral densities. In this investigation, we found an indication for a S=0 bound state. Furthermore, we were able to find some signs of spontaneous quasi-particle decay, but a quantitatively correct description is pending. Das Ganze ist mehr als die Summe seiner Teile - so ließe sich das Grundproblem der Physik kondensierter Materie in aller Kürze zusammenfassen. Auch wenn das Verhalten aller Grundbausteine im Detail bekannt ist, so können sich durch starke Wechselwirkungen vieler Teilchen untereinander neuartige, kollektive Phänomene ergeben, die sich durch das Studium der einzelnen Bestandteile nur schwerlich verstehen. Einen Ausweg aus dieser Problematik bieten effektive Modelle: Anstatt ein komplexes System mit vielen Freiheitsgraden auf hohen Energieskalen vollständig zu beschreiben, bildet ein effektives Modell nur die Freiheitsgrade ab, die bei niedrigen Energien wichtig sind. Hochenergetische Freiheitsgrade werden aus dem effektiven Modell weggelassen, ihre indirekten Auswirkungen auf niedrige Energien aber durch modifizierte, effektive Wechselwirkungen berücksichtigt. Als besonders hilfreich hat sich in der Festkörperphysik das Modell des Quasiteilchens erwiesen: Eine Anregung eines Systems vieler, stark wechselwirkender Teilchen wird durch ein Objekt beschrieben, das sich wie ein einzelnes Elementarteilchen bewegen, Bindungen eingehen und zerfallen kann. Die vorliegende Arbeit widmet sich dem Einsatz und der Verbesserung eines Verfahrens zur systematischen, kontrollierten Ableitung effektiver Niederenergiemodelle: Die Methode der kontinuierlichen, unitären Transformationen (englisch: Continuous Unitary Transformations, CUT). Hierbei wird der Hamiltonoperator eines physikalischen Systems kontinuierlich durch Lösen einer Differentialgleichung, der Flussgleichung, in eine effektive Darstellung überführt, bei der die Niederenergiefreiheitsgrade als Quasiteilchen interpretiert werden können. Die Art der Transformation wird hierbei über das Generatorschema der CUT gesteuert. Als Näherung geht in der sCUT (selbstähnliche CUT, englisch: self-similar CUT), der hier als Grundlage dienenden Variante, das Trunkierungsschema ein. Als methodische Verbesserung wurde in einem gemeinsamen Projekt eine neue Variante der CUT, genannt (erweiterte perturbative CUT, englisch: enhanced perturbative CUT), etabliert, die eine Beschreibung des effektiven Hamiltonoperators des Systems als Reihe im Sinne einer Störungsrechnung bis zu einer vorgegebenen erlaubt. Dieser Ansatz ist allgemeiner als die bereits existierende pCUT Methode (perturbative CUT, englisch: perturbative CUT), da sich auch Systeme mit nicht äquidistantem Energiespektrum behandeln lassen. Darüber hinaus wurde mit deepCUT (direkt ausgewertete epCUT, englisch: directly evaluated epCUT) eine verwandte, nichtperturbative Methode entdeckt, die der sCUT ähnelt, aber das komplizierte Trunkierungsschema durch die Ordnung im Sinne einer epCUT-Rechnung ersetzt. Die deepCUT zeichnet sich hierbei gegenüber der sCUT durch eine höhere Robustheit und geringere Mehrdeutigkeit aus. Einen besonderen Anteil meiner Arbeit nahm hierbei die rechnergestützte, parallelisierte Implementierung des Aufstellens der Flussgleichungen. In einem weiteren Projekt wurde das Versagen der bisher üblichen teilchensortierenden Generatoren in Systemen mit stark überlappenden Quasiteilchenräumen untersucht und das Auftreten eines zu niedrigen Energien unbeschränkten Spektrums als Ursache festgestellt. Als Beispielsystem dienten hierbei zwei gekoppelte bosonische Freiheitsgrade. Daraufhin entwickelten wir eine Familie aus drei neuartigen Generatorschemata, die skalare, vektorielle und tensorielle Optimierung, die diese Probleme umgehen. Danach untersuchten wir das dimerisierte, zweidimensionale S=1/2 Heisenberg mit besonderem Schwerpunkt auf dem Quantenphasenübergang zwischen der magnetisch ungeordneten und der magnetisch geordneten Phase mittels sCUT. Durch Parametrisierung des Startpunktes mit einem Variationsparameter gelang uns erstmals die Beschreibung der spontanen Brechung der kontinuierlichen SU(2) Spinsymmetrie mittels CUT. Wir konnten die Grundzustandsenergie und die Disperisionsrelationen der Triplonen und Magnonen in beiden Phasen bestimmen, erhielten jedoch keine zufriedenstellenden Resultate für die spontane Magnetisierung. Ferner entwickelten wir in einem verwandten, eindimensionalen System ein Verfahren, um modellunabhängig und ohne Parametrisierung durch einen Variationsparameter einen optimalen Startzustand zu wählen. Als weitere Anwendung analysierten wir die S=1 Heisenbergkette mittels deepCUT. Hierzu bildeten wir das System unter Einführung eines Variationsparameters auf eine S=1/2 Heisenbergkette ab. Unter Verwendung der zuvor entwickelten variationellen Generatorschemata gelang uns trotz des starken Überlapps zwischen Zwei- und Dreiteilchenraum die Entkopplung des Niederenergiespektrums und die Berechnung spektraler Dichten. Wir fanden hierbei Anhaltspunkte für einen gebundenen S=0 Zustand. Weiterhin konnten wir wichtige Merkmale für den Zerfall eines Triplons in zwei Triplonen nachweisen; eine vollständige und quantitative Beschreibung steht jedoch noch noch aus. 94 500 374 Bloch k-selective resonant inelastic scattering of hard X-rays from valence electrons of 3d-metals The shape of resonantly excited valence fluorescence spectra depends on theenergy of the incident radiation as well as on the size and the direction ofthe momentum transfer q if hard x-rays are used. This effect is due to theelectronic band structure of the valence and conduction electrons of thesample in combination with the energy and momentum conservation of thescattering process, giving rise to the law of Bloch k-momentum conservationof the resonant inelastic scattering process.In this thesis, the validity of the Bloch k-momentum conservation in thehard x-ray regime and its applicability to metallic samples are demonstratedby probing the K edge of Cu and the K edge of Ni in NiAl. Based on a LAPWbandstructure calculation resonantly excited valence fluorescence spectraare calculated. These agree well with the measured spectra.Four effects influencing the Bloch k-conserving resonant inelastic x-rayscattering process have been investigated. In contrast to scattering in the soft x-ray regime a destruction of thek-conservation due to electron-phonon interaction in the intermediate stateis not measurable at the K edge of Cu. Indeed, only a small k-unselectivefraction of a few percent is expected, since the lifetime of the 1s corehole in Cu is shorter than the electron-phonon interaction time.By means of a supercell calculation of Cu it is found that screening of the1s core hole does not alter the scattering process if the K edges of thelate 3d elements are probed. A detailed description of the supercellapproach is given. The convergence of the charge density with respect to thesize of the supercell is thoroughly investigated.The intensity of the quadrupolar 3d-to-1s transition relative to the dipolar4p-to-1s transition is obtained from the calculation of the correspondingtransition matrix elements. The result is verified by comparing calculatedto measured fluorescence spectra in the case of Ga, Ge, and As, where the 3dfluorescence line is separated from the 4p fluorescence line. Moreover, thescreening of the 3d9 final state configuration in case of the quadrupolar3d-to-1s transition is investigated. This allows to determine properly theintensity and the energetic position of the quadrupolar fluorescencecontribution in the case of Cu.The valence fluorescence lines of the late 3d elements is partly obscured bythe KNN radiative Auger satellite. The intensity of this satellite line,which is due to a double ionization process during the emission of afluorescence photon, is investigated for the elements from Co to As. Inorder to be properly considered in the interpretation of the Blochk-selective valence floresence spectra, the shape of the KNN satellite isaccounted for by a semiempirical model, which is derived from the resonantinelastic scattering cross section. The model is confirmed by investigatingthe KMN and KMM radiative Auger satellites of Cu.Moreover, the Cu K beta' and Cu K beta'' satellites of the Cu K beta_1,3fluorescence line are examined. These satellites stem from a doubleionization process during the absorption of a photon. From their thresholdenergy it is possible to confirm that they are due to a 3d spectator hole.The short saturation range indicates that these satellites are dominated byshakeup processes. Die Form von resonant angeregen Valenz-Fluoreszenzspektren hängt sowohl vonder Energie der einfallenden Strahlung, als auch von Größe und Richtung desImpulsübertrags q ab, falls harte Röntgenstrahlen benutzt werden. DieserEffekt ist auf die elektronische Bandstruktur der Valenz- undLeitungselektronen der Probe, in Kombination mit der Energie- undImpulserhaltung des Streuprozesses zurückzuführen, woraus dieBloch-k-Impulserhaltung des resonant inelastischen Streuprozesses folgt.In dieser Arbeit wird die Gültigkeit der Bloch-k-Impulserhaltung im Bereichder harten Röntgenstrahlen und ihre Anwendbarkeit auf metallische Probengezeigt. Dazu werden die K-Kante von Cu und die K-Kante von Ni in NiAluntersucht. Ausgehend von einer LAPW Bandstrukturrechnung werden resonantangerege Valenz-Fluoreszensspektren berechnet. Diese stimmen gut mit dengemessenen Spektren überein.Weiterhin werden mehrere Effekte untersucht, die den Bloch-k-erhaltendenresonant inelasischen Röntgenstreuprozess beeinflussen.Im Gegensatz zur Streuung im Bereich der weichen Röntgenstrahlung ist an derK-Kante von Cu keine Zerstörung der Bloch-k-Erhaltung durchElektron-Phonon-Wechselwirkung im Zwischenzustand meßbar. In der Tat ist nurein kleiner nicht-k-erhaltender Anteil von wenigen Prozent zu erwarten, dadie Lebensdauer des 1s Rumpf-Lochs von Cu kürzer als dieElektron-Phonon-Wechselwirkungszeit ist.Mit Hilfe einer Superzellen-Rechnung an Cu wird gezeigt, daß die Abschirmungdes 1s-Rumpf-Lochs keinen Einfluß auf den Streuprozeß hat, falls an denK-Kanten der schweren 3d-Übergangsmetalle angeregt wird. DieSuperzellen-Methode wird im Detail beschrieben, und die Konvergenz derLadungsdichte bezüglich der Größe der Superzelle wird ausführlichuntersucht.Die Intensität des 3d-nach-1s-Quadupolübergangs relativ zum4p-nach-1s-Dipolübergang wird durch die Berechnung der entsprechendenÜbergangs-Matrixelemente bestimmt. Das Ergebnis wird anhand von Ga, Ge undAs überprüft, indem berechnete Floreszenzspektren mit gemessenen verglichenwerden, da für diese Elemente die 3d-Fluoreszenzlinie von der4p-Fluoreszenzlinie getrennt ist. Ferner wird die Abschirmung des3d9-Endzustands im Fall des 3d-nach-1s-Quadrupolübergangs untersucht. Damitist es möglich, sowohl die Intensität als auch die energetische Position desQuadrupolbeitrags zur Fluoreszenz für Cu zu bestimmen.Die Valenz-Fluoreszenzlinie der schweren 3d-Übergangsmetalle wird teilweisevom radiativen KNN Auger-Satelliten ueberdeckt. Die Intensität diesesSatelliten, dem ein Doppelionisationsprozess während der Emission einesFluoreszenzphotons zugrunde liegt, wird für die Elemente Co bis Asuntersucht. Um die Satellitenlinie in der Auswertung von Bloch-k-selektivenValenz-Fluoreszenzspektren richtig berücksichtigen zu können, wird derKNN-Satellit im Rahmen eines semiempirischen Modells behandelt, das aus demresonant inelastischen Streuquerschnitt hergeleitet und anhand derradiativen KMN- und KMM-Auger-Satelliten von Cu bestätigt wird Darüber hinaus werden die Cu K beta' und Cu K beta'' Satelliten der Cu Kbeta_1,3 Fluoreszenzlinie untersucht. Diese Satelliten stammen von einemDoppelionisationsprozeß während der Absorption eines Photons. Aus ihrerSchwellenenergie kann geschlossen werden, daß ihnen ein3d-Zuschauer-Lochzustand zugrunde liegt, während der kurze Sättigungsbereichdarauf hindeutet, daß diese Satelliten von shakeup-Prozessen dominiertwerden. 95 272 242 Development of efficient methods for the syntheses of heterocycles via direct C–H bonds functionalization Heterocyclic compounds are extensively present in natural products and bioactive compounds, the synthesis of these compounds attracts attention from synthetic chemists. Although various methods have been established to prepare heterocyclic compounds, limited functional group tolerance and the requirement for a prefunctionalized starting material weaken the synthetic value of those methods. Therefore, new approaches for the straightforward synthesis and functionalization of these compounds are highly desirable. Based on transition-metal catalysis, two novel reaction methodologies for the synthesis of C7-substituted indoles were developed. The first method was conducted via rhodium(III)-catalyzed regioselective alkenylation and subsequent oxidation in a one-pot fashion; the second method was accomplished by iridium(III)-catalyzed regioselective amination using sulfonyl azides as a nitrogen source. Both protocols feature excellent regioselectivity, high efficiency and good tolerance with different functional groups. Subsequently, two novel approaches to construct nitrogen-containing heterocycles were achieved through direct functionalization of C(sp3)–H bond at a-position of tertiary amines. Cyclizations between tertiary arylamines and electron-deficient alkenes via α-aminoalkyl radicals, which were generated by TBAI/TBHP, laid the groundwork for the described transformation. Tertiary arylamines even with strong electron-withdrawing groups yielded the desired products under this newly developed reaction condition. The other described approach was the construction of imidazo[4,5-b]pyridines through iminium ion intermediates, which were in situ formed by oxidation of electron-deficient amines. 3-Amino pyridines with dialkyl amino groups at the C2-postion rapidly delivered the desired products using T+BF4- as oxidant at ambient temperature. A series of compounds were synthesized by these novel strategies. All of them were subjected to various cell-based assays to investigate potential modulation of important biological pathways. Indole und dessen Derivate sind ein häufiger Bestandteil von Naturstoffen und bioaktiven Verbindungen. Auch wenn bereits erfolgreich Methoden zur Synthese heterocyclischer Verbindungen etabliert wurden, ist deren synthetischer Nutzen häufig durch ein limitiertes Substratspektrum oder das Erfordernis eines prefunktionalisierten Startmaterials begrenzt. Aus diesem Grund sind neue und zielgerichtete Methoden zur Synthese und Funktionalisierung dieser Verbindungen von hohem Interesse. Basierend auf Übergangsmetallkatalyse wurden zwei neue Reaktionsmethoden zur Synthese von C7-substutierten Indolen entwickelt. Die erste Methode wurde mittels Rhodium(III)-katalysierter Alkenylierung mit anschließender Oxidation im Ein-Topf-Verfahren durchgeführt. Die zweite Methode basierte auf einer Iridium(III)-katalysierten regioselektiven Aminierung, wobei Sulfonylazide als Stickstoffquelle verwendet wurden. Beide Protokolle erzielten exzellente Regioselektivität, hohe Atomeffizienz und gute Toleranz gegenüber verschiedenen funktionellen Gruppen. Zwei neue Ansätze zur Konstruktion Stickstoff-haltiger Heterocyclen, durch die direkte Funktionalisierung einer C(sp3)-H Bindung, in Nachbarschaft zu einem Stickstoffatom, wurden im Folgenden etabliert. Cyclisierung eines tertiären Arylamines und elektron-armen Alkenen, durch die Bildung eines α-Aminoalkylradikals mit TBAI/TBHP, stellte die Grundlage für die entwickelte Transformation dar. Tertiäre Arylamine, sogar mit stark elektronen-ziehenden Gruppen, bildeten die gewünschten Produkte mit Hilfe der neuentwickelten Reaktionsbedingungen. Der zweite Ansatz erzielte die Konstruktion von Imidazo[4,5-b]pyridinen durch die in situ Generierung eines Iminiumions, durch die Oxidation von elektronenarmen Aminen. 3-Aminopyridine ausgestattet mit Dialkylaminogruppen an der C2-Position lieferten die Zielverbindungen bei Raumtemperatur unter Verwendung von T+BF4- als Oxidationsmittel in kurzer Reaktionszeit. Eine Vielzahl an interessanten Verbindungen wurde mit Hilfe dieser neuen Strategien synthetisiert. Alle Verbindungen wurden auf potentielle Modulierung von wichtigen biologischen Signalwegen in verschiedenen Zell-basierten Assays getestet. 96 124 107 Stability and instability in the labor Market. A Research on occupational Transitions in East and West German Employment Enterprises Based on the discussion about the increased variety of occupational forms, this article focuses on the question which patterns of employment enterprises in East and West Germany actually prefer. Founded on qualitative case studies, the role of enterprises and specifically the influence of their policies on occupational transitions is analysed and discussed within the context of labour market theories. Empirical results demonstrate, that in order to keep the qualification and motivation of the employees decision-makers in personnel management adjust their actions to the continuity of durable employment. In this context patterns of employment as results of earlier actions can lessen the scope for current decisions. Stabilität und De-Stabilität am betrieblichen Arbeitsmarkt 97 195 172 Precision measurement of the CKM parameter sin(𝟮𝝱) with the LHCb experiment This thesis presents a decay-time dependent measurement of CP violation in the decay of B0 and B0-bar mesons into their common J/ψ KS final state. The CP observables S(J/ψ KS) and C(J/ψ KS) allow access to the magnitude of the symmetry violation in the interference between the B meson decay and mixing amplitudes and can directly be related to the CKM angle β. Using a dataset of selected signal B0 to J/ψ KS candidates corresponding to an integrated luminosity of 3.0 fb-1 collected at centre-of-mass energies of 7 and 8 TeV by the LHCb experiment, the CP observables are measured to be S(J/ψ KS) = -0.731 ± 0.035 (stat) ± 0.020 (syst), C(J/ψ KS) = -0.038 ± 0.032 (stat) ± 0.005 (syst), resulting in the worlds most precise measurement of these quantities at a hadron collider. With the parameter C(J/ψ S) fixed to zero, S(J/ψ KS) equals sin(2β) = 0.746 ± 0.030 (stat). The results have a similar precision as previous measurements at the B factories Babar and Belle and are consistent with these and with expectations from measurements of other CKM matrix parameters. Die vorliegende Dissertation beschreibt eine zerfallszeitabhängige Messung von CP-Verletzung im Zerfall von B0- und Anti-B0-Mesonen in ihren gemeinsamen Endzustand J/ψ KS. Die Größe der Symmetrieverletzung in der Interferenz der Zerfalls- und Mischungs-Amplituden der B-Mesonen lässt sich durch die CP-Observablen S(J/ψ KS) und C(J/ψ KS) ausdrücken und mit dem CKM-Winkel β in Bezug setzen. Die Messung wurde auf einem Datensatz von selektierten B0 nach J/ψ KS Signal-Kandidaten durchgeführt, der einer integrierten Luminosität von 3.0 fb-1 entspricht und bei Schwerpunktsenergien von 7 und 8 TeV am LHCb-Experiment aufgenommen wurde. Mit S(J/ψ KS) = -0.731 ± 0.035 (stat) ± 0.020 (syst), C(J/ψ KS) = -0.038 ± 0.032 (stat) ± 0.005 (syst), wurden die CP-Observablen mit einer Genauigkeit gemessen, die weltweit bisher an keinem anderen hadronischen Beschleuniger erreicht werden konnte. Unter der Annahme von C(J/ψ KS) = 0 folgt S(J/ψ KS) = sin(2β) = 0.746 ± 0.030 (stat). Die Ergebnisse sind von ähnlicher Präzision wie bisherige Messungen an den B-Fabriken Babar und Belle und sind bestens vereinbar mit diesen und Erwartungen aus Messungen von anderen CKM-Matrix-Parametern. 98 150 136 Gewichts- und Distanzzähler von Codes und Kugelpackungen Higher degree average theta series of periodic point sets and distance enumerators of (nonlinear) binary codes are defined. They generalize the well-known enumerators/series of degree 1 and the enumerators/series in the linear case respectively. Some important properties (e.g. MacWilliams-transform/theta transformation formula) of these enumerators/series are proven. The average theta series of suitable point sets are modular forms. The corresponding modular group is determined and it is shown, that the well-known connection between weight enumerators of linear codes and the theta series of the lattices constructed via the codes carries over to the distance enumerators and average theta series. Furthermore a class of binary codes is determined for which the degree 2 distance enumerators are invariant under MacWilliams-transformation. In the last chapter the application of the preceding concepts on a certain sphere packing problem in dimension 16 is studied. In addition some point sets with a prescribed distance distribution are constructed. In dieser Arbeit werden Average-Thetareihen zu periodischen Punktmengen und Distanzzähler (nichtlinearer) binärer Codes von höherem Grad definiert. Sie verallgemeinern die bekannten Zähler/Reihen vom Grad 1 bzw. die Gewichtszähler/Thetareihen im linearen Fall. Es werden Eigenschaften (u.a. MacWilliams-Transformierte/Thetatransformationsformel) dieser Zähler/Reihen nachgewiesen. Die Average-Thetareihen zu geeigneten periodischen Punktmengen sind Modulformen; die zugehörige Modulgruppe wird in der Arbeit bestimmt, und es wird gezeigt, dass die wohlbekannteBeziehung zwischen den Gewichtszählern linearer Codes und den Thetareihen der aus den Codes konstuierten Gittern sich auf die Distanzzähler und Average-Thetareihen überträgt. Desweiteren wird eine Klasse von binären Codes bestimmt, deren Grad 2 Distanzzähler invariant unter MacWilliams-Transformation sind. Im letzten Kapitel der Arbeit wird die Anwendung dieser Konzepte auf ein spezielles Packungsproblem im 16-dimensionalen Raum diskutiert, und es werden periodische Punktmengen mit einer bestimmten Abstandsverteilung vom Nullpunkt konstruiert. 99 138 101 Multimedia in the printing-industry: Demands on the employees and firms Multimedia in der Druckindustrie. Anforderungen an Beschäftigte und Betriebe By the use of the new, digital media, the action conditions especially for the medium-sized and small enterprises of the printing industry in Germany are changing radically. Multimedia information processing technologies and high-performance telecommunication networks modify the supply as well as the domestic markets, which as a consequence develop new demands for organization and qualification strategies in the firms. Against this background an interrogation of more than 50 experts was designed in order to identify a model for the successful transition of the printing industry to a new multimedia industry. This Profile of Multimedia Requiries in the innovation areas of technology, organization, personnel and market offers a basis for individual firm strategy planning and led to the initiation of the Innovation Offensive in the region of North Rhine-Westphalia. Durch den Einsatz der neuen, digitalen Medien verändert sich der Handlungsrahmen für die mittelständische Druckindustrie in Deutschland radikal. Multimediale Informationsverarbeitungstechnologien und hochleistungsfähige Telekommunikationsnetze revolutionieren Anbieter- und Nachfragemärkte, die in der Folge neue Anforderungen an die Organisationsformen und die Kompetenzentwicklungsstrategien der Unternehmen stellen. Vor diesem Hintergrund wurde im Rahmen einer umfangreichen Expertenbefragung ein Leitbild für einen erfolgreichen Strukturwandel der Branche in Form eines Anforderungsprofils in den Innovationsbereichen Technik, Organisation, Personal und Marktverhalten erarbeitet. Dieses Kompetenzprofil Multimedia bietet die Grundlage für individuelle Unternehmensstrategien und dient aktuell als konzeptioneller Bezugsrahmen für die Innovationsoffensive Medienwirtschaft NRW. 100 135 126 Röntgendiiffraktion an Papier und Vulkanfiber Vulcanized fibre is an environmental friendly, rediscovered material. It is made from renewable resources, is well to process, has many desirable properties and is easy to dispose at the end of its lifecycle. Because of some similar properties vulcanized fibre is in competition with petroleum based plastics. In this thesis the structure of vulcanized fibre and the raw material paper is invesitgated using x-ray diffraction. Due to the molecular structure of cellulose, the layering of paper sheets, and possible grain direction, the material is non-isotropic. With the understanding of the microscopic structure and the macroscopic properties, the complex production process will be optimised in the future to obtain an ideal vulcanized fibre. The structure is also examined under non-ambient conditions. Furthermore the influence of additives on the vulcanized fibre and the production process is investigated. Vulkanfiber ist ein umweltfreundlicher, wiederentdeckter Werkstoff. Er wird aus nachwachsenden Rohstoffen hergestellt, ist gut zu bearbeiten, hat viele wünschenswerte Eigenschaften und ist am Ende des Produktlebenszyklus problemlos zu entsorgen. Aufgrund einiger ähnlicher Eigenschaften steht Vulkanfiber in besonderer Konkurrenz zu den erdölbasierten Kunststoffen. In dieser Arbeit wird die Struktur von Vulkanfiber und dem Ausgangsstoff Papier mittels Röntgendiffraktion untersucht. Das Material ist durch den molekularen Aufbau der Cellulose, die Schichtung der Papierlagen und eine eventuelle Maschinenlaufrichtung anisotrop. Durch das Verständnis der mikroskopischen Struktur und der makroskopischen Eigenschaften soll in Zukunft der komplexe Herstellungsprozess optimiert werden, um eine ideale Vulkanfiber zu erhalten. Die Struktur wird auch unter Nichtnormalbedingungen untersucht. Des Weiteren wird der Einfluss von Zusatzstoffen auf die Vulkanfiber und der Herstellungsprozess experimentell analysiert. 101 310 286 Microfluidic imaging: pixelation and pre-concentration for biological and chemical sample analyses The novel concept "microfluidic imaging" that spatially resolves the composition of complex biological and chemical samples by pixelation within a microfluidic platform was explored. The approach integrates two different microfluidic techniques: sample pre-concentration and droplet-based pressure driven flow system. An electrokinetic pre-concentration method for amino acid enrichment was explored. This technique can be integrated to manipulate pixelated sample that have low-abundant analytes in very small volumes. Agarose gel excelled in fixing various samples on the surface and in the parallel uptake and pixelation step. The presented device was designed and fabricated to image samples by discretising targeted areas into droplets suspended in a two-phase microflow. These droplets are transferred from parallel to serial mode for data readout similar to a CCD camera, thus referred as "microfluidic imaging". Three major process steps conducted within the device were parallel sample pixelation and uptake, transfer from parallel to serial mode into a microchannel for individual analysis and image generation. This microfluidic pixelation method is capable of obtaining non-averaged data from heterogeneous specimen, with reduced arduous preparation steps while retaining the spatial information. The ability to convert the compartmentalised information from a parallel to serial manner is an advantage this device has allowing to approach closer to automation and to implement preparation, separation and detection steps. In this respect, the concept has clear superiority over currently available techniques for capturing of cells from tissue, such as laser microdissection or capillary capture methods. With further pixel size reductions, controlled encapsulation of single cells in single droplets comparable in size to the cell diameter is accomplishable. This way the application of the concept in high throughput screening, clinical diagnosis, single cell bioreactors, and the investigation of stem cell differentiation can be appreciated, emphasising the importance of cellular heterogeneity within a population at single cell level. Das neuartige Konzept des "Microfludic Imaging" wurde untersucht, welches die Zusammensetzung biologischer und chemischer Proben durch Pixelierung innerhalb einer mikrofluidischen Plattform räumlich auflöst. Der Ansatz vereint zwei mikrofluidische Prinzipien, die Aufkonzentration von Analyten und ein auf Tropfen basiertes, druckbetriebenes Fließsystem. Dabei wurde eine Konzentrationsmethode für die Anreicherung von Aminosäuren untersucht. Diese Technik kann eine pixelierte Probe mit niedrig konzentrierten Analyten selbst in kleinen Volumina bearbeiten. Als Oberfläche zeichnete sich dabei Agarose-Gel sowohl durch ausgezeichnete Fixierung von verschiedensten Proben als auch durch die parallele Aufnahme aus. Der präsentierte Chip wurde so konzipiert und hergestellt, dass er Proben in diskrete Flächen einteilen und als suspendierte Tropfen in ein zweiphasiges Mikroflusssystem aufnehmen kann. Diese Tropfen werden zur Datenausgabe vom parallelen in den seriellen Modus übertragen, ähnlich wie bei einer CCD-Kamera, und somit als "Microfluidic Imaging" bezeichnet. In der Apperatur müssen drei Schritte vollzogen werden: Die Probepixelierung und -aufnahme, die Umwandlung von parallelem zu seriellem Betrieb im Mikrokanal, um die individuelle Analyse sicherzustellen, und die Generierung des ursprüglichen Bildes. Diese mikrofluidische Pixelierungsmethode ist fähig nicht gemittelte Daten aus heterogenen Proben zu erzielen, ohne mühsame Vorbereitungsschritte und bei gleichzeitiger Erhaltung der räumlichen Information. Die Fähigkeit Information von paralleler in serielle Weise umzuwandeln ist ein Vorteil dieses Chips, welcher die Grundlage für die vollständige Automatisierung und Implementierung von Probenvorbereitung, Trennung und Detektion darstellt. Die Methode ist somit klar besser als Techniken zur Zellisolation aus Geweben, wie Lasermikrodissektion oder kapillare Isolationssysteme, und mit einer weiteren Reduzierung der Pixelgrösse wird die Isolation von einzelnen Zellen in Tröpfchen mit ähnlichem Durchmesser wie dem der Zellen, möglich. So kann dieses Konzept künftig für "High Throughput Screening", klinische Diagnosen, Einzelzellreaktoren und zur Untersuchung von Stammzelldifferenzierung genutzt werden, und unterstreicht die Wichtigkeit der zellulären Heterogenität innerhalb einer Population. 102 315 269 Empirische Risiko-Minimierung für dynamische Datenstrukturen We consider the task of finding a functional relationship in a set of data. Given an appropriate set of functions to choose from, this leads to the minimization of an expected loss, i.e. a risk, with respect to a suitable measure. In the case when the underlying probability distribution is unknown the empirical risk is an obvious estimator that can be employed for the minimization problem. This empirical risk minimization principle (ERM-principle) has good consistency properties in the case of independent and identically distributed observations. The theory together with the Structural Risk Minimization, which based on it, is the basis for different methods in the context of statistical learning theory, like Support Vector Machines (SVM).The limiting assumptions of the ERM-principle do not permit an application of the SVM on data with dependence structures. However, the analysis of dynamical, usually temporal structures becomes more and more important in modern data analysis and an application of empirical risk minimization to data of this kind is desirable. The extension of this principle for cases of time dependent data has to include the modeled dynamic structure in the data. Thereby the dynamics are not represented directly, but by modeling the errors in the data as a dynamical stochastic process. The proof of the consistency of the ERM-principle under these more general assumptions is given using consistency theorems for Martingales and Mixingales as well, such that different temporal structures in the errors are possible. In addition, an exponential convergence rate is of crucial importance for the application of the ERM-Principle and for the development of appropriate algorithms. Suitable exponential bounds are proven for Martingale and Mixingale structures as well, which guarantee fast convergence.Thus, empirical risk minimization constitutes a general principle with Mixingale or Martingale structures in the data and the conceptional theoretical part of the statistical learning theory can be used with independent data as well as with dynamical structures. Strukturen in Datensätzen sollen häufig durch einen funktionalen Zusammenhang dargestellt werden. Die Grundlage zur bestmöglichen Anpassung einer Funktion an die vorliegende Datenstruktur bezüglich eines geeignet gewählten Maßes ist in der Regel die Minimierung eines erwarteten Verlusts, des Risikos. Bei unbekannter Verteilung ist das empirische Risiko ein nahe liegender Ersatz. Bei unabhängig identisch verteilten Beobachtungen und nur geringen Voraussetzungen hat dieses empirische Risikominimierungsverfahren (ERM-Prinzip) gute Konsistenzeigenschaften. Die Theorie ist zusammen mit der darauf aufbauenden strukturellen Risiko-Minimierung die Grundlage für verschiedene Methoden der statistischen Lerntheorie, wie z.B. Support Vector Machines (SVM). Auf Grund der limitierenden Voraussetzungen des ERM-Prinzips ist es nicht zulässig, die SVM auf Daten mit Abhängigkeitsstrukturen anzuwenden. Die Analyse dynamischer, meist zeitlicher Strukturen nimmt aber einen immer größeren Platz in der modernen Datenanalyse ein, so dass eine Anwendung des Prinzips der empirischen Risiko-Minimierung auf solche Daten wünschenswert ist. Dazu muss die Theorie so erweitert werden, dass die Dynamik in den Daten als stochastischer Prozess auf den Fehlerterm innerhalb der Daten wirkt. In der vorliegenden Arbeit kann dafür die Konsistenz der empirischen Risiko-Minimierung durch Ausnutzen von Konsistenzsätzen der Martingal- und vor allem der Mixingal-Theorie nachgewiesen werden. Dadurch sind zahlreiche unterschiedliche Annahmen an die Abhängigkeitsstruktur in den Fehlern möglich. Zusätzlich ist für die Anwendung des ERM-Prinzips bei der Entwicklung von geeigneten Algorithmen eine exponentielle Konvergenzrate von entscheidender Bedeutung. Für Martingal- und auch Mixingal-Strukturen in den Daten können geeignete exponentielle Schranken nachgewiesen werden, die eine schnelle Konvergenz sicherstellen.Die empirische Risiko-Minimierung bildet somit auch bei Mixingal- und Martingal-Strukturen ein allgemeingültiges Prinzip. Damit kann der konzeptionell theoretische Teil der statistischen Lerntheorie nach Vapnik auch für dynamische Datenstrukturen genutzt werden. 103 183 165 Homogeneity and heterogeneity in group composition. A micropolitical study on decision-marking processes within work groups The paper refers to the discussion on the effects of homogeneous versus heterogeneous group compositions in partly autonomous work groups. It transcends the pursuit of finding a "one best way" and focuses on the social processes within the work group. Based on a case study in a company which employed partly autonomous work groups on the operational as well as on the lowest managerial level, a micropolitical perspective is elaborated, which allows to explain the dynamics of the social processes in conjunction with the tasks assigned to the groups. It is shown that the heterogeneous group composition facilitates an informal rehierarchisation within the work groups, which on the one hand leads to quicker decision-making in conflict situations, but on the other hand may obstruct technical discussions in the groups. While groups on the operational level are more easily lined up by the fact, that each member s contribution to the outcome can be easily observed, groups on the operational level show a stronger tendency towards escalating power struggles. Homogenität und Heterogenität in der Gruppenzusammensetzung 104 161 119 Climatic Influences on the Energy Demand of European Office Buildings This dissertation analyses the total primary energy demand of office buildings in 25 European locations and the impact of the respective climatic conditions by the means of building simulation. An overview of existing climate classification systems and methodologies for comparison of buildings in different locations is followed by the definition of a representative office building model. Besides buildings with typical insulation levels per country, buildings with optimised façades in terms of insulation level and window proportion have also been analysed. Correlations between the location’s degree of latitude, the climatic conditions and the energy demand for heating, cooling, ventilation and lighting have been evaluated. Furthermore, the impact of latent cooling loads has been analysed and the impacts of climate change on the building energy demand have been exemplified for two locations. From the findings in this work, a European Building Performance Climate Index (EBPCI) and a subsequent Classification (EBPCC) could be deducted. Diese Dissertation untersucht den Gesamtprimärenergiebedarf von Bürogebäuden an 25 europäischen Standorten und den Einfluss der jeweiligen klimatischen Bedingungen mit Hilfe der Gebäudesimulation. Ein Überblick über bestehende Klimaklassifikationssysteme und Methoden des Gebäudevergleiches an verschiedenen Standorten wird gefolgt von der Definition eines repräsentativen Bürogebäude-Modells. Neben Gebäuden mit landestypischen Dämmstandards wurden auch Gebäude mit im Hinblick auf Dämmstandard und Fensterflächenanteil optimierten Fassaden untersucht. Korrelationen zwischen der geographischen Breite des Standortes, den klimatischen Bedingungen und dem Energiebedarf für Heizung, Kühlung, Lüftung und Beleuchtung wurden bewertet. Des Weiteren wurden der Einfluss latenter Kühllasten analysiert und die Auswirkungen des Klimawandels auf den Gebäudeenergiebedarf beispielhaft für zwei Standorte untersucht. Aus den Ergebnissen dieser Arbeit konnten ein europäischer Gebäudeeffizienz-Klimaindex (EBPCI) und eine entsprechende Klimaklassifikation (EBPCC) abgeleitet werden. 105 215 185 Tracking performance and GPU trigger studies for the SciFi Tracker This thesis presents studies towards the LHCb detector upgrade for the LHC Run III. Mostly the entire detector is renewed to profit from the changed beam conditions. Two of the main changes are a fivefold instantaneous luminosity and a pure software trigger. Because of the higher luminosity, the track density is increased. Therefore, components with higher granularity are used, and one of them is the SciFi tracker. It is made of 250 μm thick scintillating fibres. The light output of this fibres decreases through radiation damages and natural material ageing. These effects are added to the detector simulation. Thereby the tracking efficiency of the SciFi is simulated for the entire planned lifetime. The first stage of the LHCb software trigger reduces the incoming data-rate of 40 Tbit s−1 by a factor of 40. The necessary computations are paralellisable, and for this reason, a GPU based implementation is suitable. A GPU version of the SciFi hit decoder was implemented during the baseline architecture change process from CPU to GPU. The LHCb detector has a diamond-sensor based safety system, which monitors the LHC beam. This system is renewed in parallel to the detector upgrade. Measurements towards the diamond sensor efficiency characterisation with a strontium source are presented. Diese Arbeit präsentiert Studien bezüglich des LHCb Detektor upgrades für den LHC Run III. Fast der gesamte Detektor wird erneuert, um von den geänderten Strahlbedingungen zu profitieren. Zwei der Hauptänderungen sind die fünffache instantane Luminosität und der ausschließlich softwarebasierte trigger. Aufgrund der höheren Luminosität erhöht sich die Spurdichte. Deshalb werden Komponenten mit höheren Granularität verwendet wovon eine der SciFi tracker ist. Dieser besteht aus 250 μm dicken szintillierenden Fasern. Die Lichtausbeute der Fasern verringert sich durch Strahlenschäden und natürlicher Materialalterung. Diese Effekte wurden der Detektorsimulation hinzugefügt. Dadurch kann die Spurfindungseffizienz des SciFi trackers für die gesamte geplante Laufzeit simuliert werden. Die erste Stufe des LHCb Software triggers reduziert die Eingangsdatenrate von 40 Tbit s−1 um einen Faktor 40. Die notwendigen Berechnungen sind parallelisierbar und deshalb für eine GPU basierte Implementierung geeignet. Eine GPU Version des SciFi hit Dekodierers wurde, während des Prozesses zur Änderung der grundsätzlichen Architektur von CPU zu GPU, implementiert. Der LHCb Detektor verfügt über ein Diamantsensor basiertes Sicherheitssystem, welches den LHC Strahl überwacht. Dieses System wird parallel zum Detektor erneuert. Messungen bezüglich der Diamantsensor Effizienz Charakterisierung mittels einer Strontium Quelle werden vorgestellt. 106 391 339 Kernel based nonparametric coefficient estimation in diffusion models This thesis deals with the nonparametric estimation of the coefficients in different diffusion models. In the first part, based on an approximation of the infinitesimal generator of the underlying diffusion process, we investigate a Nadaraya-Watson like estimator for the pointwise estimation of the unknown drift function $b$. We derive its asymptotic properties as consistency and asymptotic normality under a double asymptotics scheme. In fact, we work with high-frequency data on an enlarging time horizon. Moreover, a consistent estimator of the asymptotic variance is proposed, which is useful for the construction of feasible pointwise confidence intervals. Subsequently, we consider the case of noisy data. We suggest the use of the pre-averaging approach proposed by Podolskij and Vetter (2006) for the nonparametric estimation of integrated volatility of Itô-semimartingales. We show how to use this approach in our setting and, moreover, derive the asymptotic distribution of the new estimator. Finally, the case of integrated diffusions is treated, where we make use of an analogous approach to estimate the drift of the underlying and hidden diffusion, too. The second part deals with bias correction methods for symmetrical kernel based nonparametric estimators. At first, we investigate an adaptive version of the Nadaraya-Watson estimator possessing a state-dependent bandwidth function. We show that an appropriate choice of the function yields to a bias reduction. Afterwards, boundary bias correction methods are investigate. In particular, we will focus on an approach by Chen (1999, 2000), who suggested the use of asymmetric kernels for estimating a probability density possessing bounded or compact support. Based on asymmetric kernels, we propose two multiplicative bias correction (``MBC") methods for the nonparametric estimation of the joint density of a random vector possessing bounded marginals. Subsequently, we investigate multivariate diffusions for which analogous approximations of the drift vector and the diffusion matrix exist. For the nonparametric estimation of the drift vector, we propose a componentwise estimator based on the introduced MBC techniques. Finally, in the third part of this thesis we focus on boundary bias effects of nonparametric estimators of compact supported densities. In particular, copula densities are toy-examples of this class of densities. Via Bernstein polynomials and based on Sklar´s theorem, we propose an alternative approach for estimating conditional expectations, which act, in turn, as approximations of the drift function in the previous chapters of this thesis. Diese Arbeit handelt von der nichtparametrischen Schätzung von Koeffizienten in verschiedenen Diffusions-Modellen. Im ersten Teil konstruieren wir einen nichtparametrischen punktweisen Nadaraya-Watson Schätzer für die unbekannte Driftfunktion $b$ eines Sprungdiffusionsprozesses, der auf einer Approximation des infinitesimalen Erzeugers der zu Grunde liegenden Diffusion basiert. Wir leiten asymptotische Eigenschaften wie Konsistenz und asymptotische Normalität her. Dabei arbeiten wir mit Hochfrequenz-Daten, welche über einen anwachsenden Zeithorizont beobachtet werden. Weiterhin geben wir einen konsistenten Schätzer für die asymptotische Varianz der Grenzverteilung des eingeführten Dichteschätzers an, welcher für die Konstruktion praktikabler punktweiser Konfidenzintervalle benötigt wird. Anschließen betrachten wir den Fall von verrauschten Daten und nutzen den “Pre-Averaging“ Ansatz an, welcher ursprünglich von Podolskij und Vetter (2006) für die nichtparametrische Schätzung der integrierten Volatilität von Itô-Semimartingalen eingeführt wurde. Unter entsprechenden Voraussetzungen zeigen wir, dass der neue Schätzer ebenfalls asymptotisch normalverteilt ist. Das erste Kapitel schließt mit einer Betrachtung von integrierten Diffusionen ab. Hier wird, analog zu vorher, ein “Pre-Averaging“ Ansatz verfolgt, um die Driftfunktion der integrierten Diffusion zu schätzen. Im zweiten Teil der Arbeit werden verschiedene Bias-Reduzierungsmöglichkeiten untersucht. Hierfür wird zunächst eine adaptive Version des Nadaraya-Watson Schätzers für bedingte Erwartungswerte betrachtet, bei der die Bandbreite zustandsabhängig ist. Hierbei führt eine adäquate Wahl der Bandbreitenfunktion zu einer Bias-Verringerung. Danach beschäftigen wir uns hauptsächlich mit Methoden, die dem sehr bekannten “Boundary Bias“-Effekt von nichtparametrischen Schätzern, welche auf symmetrischen Kernfunktionen basieren, entgegenwirken. Konkret führen wir zwei multivariate Dichteschätzer für die gemeinsame Dichte mehrdimensionaler Zufallsvektoren ein, deren Randverteilungen einen beschränkten Träger besitzen. Diese Schätzer basieren auf nicht-negativen multiplikativen Bias-Reduzierung Techniken. Diese Schätzer werden anschließend für die komponentenweise nichtparametrische Schätzung des Driftvektors in einem von einer Brownschen Bewegung angetriebenen multivariaten Diffusionsmodell vorgeschlagen. Das letzte Kapitel beschäftigt sich mit dem “Boundary Bias“ Effekt nicht parametrischer Schätzer für Dichten, welche einen kompakten Träger besitzen. Hierfür bilden Copula Dichten ein kanonisches Beispiel. Basierend auf dem Satz von Sklar wird eine alternative Darstellung des bedingten Erwartungswertes hergeleitet, der im Laufe der Arbeit stets als Approximation für die Driftfunktion diente. Hierfür wird dann abschließend eine alternative Möglichkeit vorgestellt, bedingte Erwartungswerte mit Hilfe von Bernstein-Polynomen zu schätzen. 107 201 153 Stacking point source search for a neutrino contribution at 22 track-like HESE positions using six years of IceCube data In this thesis, an approach is presented to probe the locations of track-like high energy starting events (HESE) for an additional clustering of neutrino events within six years of IceCube neutrino data at these positions. Two unbinned Likelihood stacking analyses using both a time-dependent, per-burst and a steady-state neutrino emission scenario are performed. This is done to be sensitive to a collection of weak fluxes, undetectable on their own and to test a rather broad regime of emission scenarios in the light of the unknown, underlying sources types. In both analyses, no significant excess of an additional neutrino contribution was found. However, a slight over-fluctuation of about 1 𝜎 in the largest tested time window, with a width of five days, and about 0.7 𝜎 in the time-integrated analysis is measured. This mildly indicates a connection to the recent measurement of a correlation between the flaring Blazar TXS 0506+056 and an extremely high energy neutrino starting event, where evidence was found for an additional neutrino emission on timescales of about 110 days, right in between the tested emission scenarios in this thesis. In dieser Arbeit wird die Suche nach einem Neutrinofluss an den Positionen von hochenergetischen, im Detektor startenden Neutrinoereignissen, High Energy Starting Events (HESE), in sechs Jahren IceCube Neutrino Daten beschrieben. Es wird ein ungebinnter, gestackter Likelihood-Ansatz benutzt, um nach zusätzlichen Neutrinoereignissen zu suchen, die räumlich korreliert zu den HESE-Ereignissen erzeugt wurden. Da die potentiellen Quellen, aus denen die HESE Ereignisse stammen können unbekannt sind, wird sowohl ein zeitabhängiges, als auch ein stetiges Emissionsszenario getestet. In beiden Analysen konnte kein signifikantes Signal gefunden werden. Allerdings zeigt sowohl die zeitabhängige Messung mit etwa 1 𝜎 im größten getesteten Zeitfenster, mit einer Breite von fünf Tagen, als auch die zeitintegrierte Messung mit 0.7 𝜎 eine leichte Überfluktuation. Beide Ergebnisse lassen sich damit in den Rahmen der kürzlich entdeckten Korrelation eines extrem hochenergetischen Neutrinos und der erhöhten Aktivität des Blazars TXS 0506+056, bei der eine zusätzliche Neutrinoemission auf einer Zeitskala von etwa 110 Tagen nachgewiesen wurde, einfügen. 108 84 73 Environmental management systems: hindvance or trigger for socio-ecological learning processes within small firms Hemmschuh oder Auslöser für sozial-ökologische Lernprozesse in Kleinunternehmen der Bauwirtschaft? Small Companies rarely introduce environmental management systems. By the example of a pilot project involving three construction firms it will be analyzed under which circumstances environmental management may foster socio-ecological learning processes within small firms. A communicative and organizational embedding of management systems is a prerequisite for their successful adaption to small firms. Processes of ecological and organizational change within small firms will be restricted, if paternalistic patterns of communication prevail. Die Einführung eines Umweltmanagements ist in Kleinbetrieben vergleichsweise wenig verbreitet. Anhand eines Modellprojekts in der Bauwirtschaft soll aufgezeigt werden, unter welchen Voraussetzungen das Umweltmanagement als Katalysator für sozial-ökologische Lernprozesse in Kleinunternehmen wirken kann. Eine kommunikative und organisatorische Einbettung von Managementsystemen ist erforderlich für ihre Anschlussfähigkeit an kleinbetriebliche Strukturen. Ein umweltorientierter Organisationswandel bleibt begrenzt, wenn es nicht gelingt, paternalistische Kommunikationsmuster in Kleinunternehmen zu verändern. 109 423 407 Einfluss struktureller Charakteristika auf die Eigenschaften neuartiger Pyridinium-Geminitenside The term “surfactant” refers to a wide variety of various chemical compounds which are generally characterised by their interfacial activity. They are of enormous economic significance and their applications cover private, industrial and specialty applications. Despite the diversity of available surfactants and formulations, research on novel surface-active compounds is of great importance from both an economic and environmental point of view and promoted due to increased regulatory pressure in the approval of substances, as well as by optimisation needs of existing processes and applications. Gemini surfactants are a relatively new subgroup of surfactants, which often show considerably enhanced surface-active properties, therefore great potential is prognosticated. The present thesis presents preparative obtention, as well as the characterisation of novel pyridinium gemini surfactants. In addition to the empirical acquisition of experimental data, this thesis investigates particularly the influence of structural parameters to identify possible influencing factors and tendencies. The first experimental section deals with the examination of simple pyridinium surfactants, which are characterised by the absence of hetero atoms or functional groups except the cationic head group. Therefore, they are particularly suitable for the investigation of dimerization effects as well as counter ion effects and the influence of the length of the hydrophobic chains. Interactions with functional groups are thereby excluded. Not only the micellisation behaviour, but also the solubility of the surfactants, with special focus on the Krafft points, were investigated and analysed by the application of newly developed methods of data analysis. Therefore, effects arising from structural variations could be identified precisely. In the second experimental section, a novel class of surfactants, which has been synthesized and characterised within this work, is presented. This involves amide bonded gemini surfactants, based on aminopyridine. These surfactants represent an interesting subject of research, due to the special properties of the amide bonds. They show particularly strong cohesive properties, requiring significant deviations from standard methods in synthesis and analytics of the compounds. In most cases, the solubility of the compounds could be improved by appropriate counterion exchange. In aqueous solutions the surfactants show an interesting aggregation behaviour. In addition to the remarkably low critical aggregation concentrations, some surfactant systems formed higher aggregates. Important structural parameters, such as the presence of chiral centres could be examined, and the properties of supramolecular chiral aggregates was compared to achiral aggregates. The results provide a comprehensive picture of the impact of different structural parameters on the aggregation behaviour of novel pyridinium gemini surfactants. Basic insights for further research in this field have been gained and permit various other interesting research approaches. Der Begriff „Tenside“ umfasst einen weiten Bereich verschiedener chemischer Stoffe, die sich im Allgemeinen durch ihre grenzflächenaktiven Eigenschaften auszeichnen. Sie sind von enormer wirtschaftlicher Bedeutung und werden sowohl in privaten als auch in unterschiedlichsten industriellen Bereichen und für Spezialanwendungen eingesetzt. Trotz der Vielfalt der verfügbaren Tenside und Formulierungen, ist die Erforschung neuartiger grenzflächenaktiver Verbindungen sowohl aus ökonomischer als auch aus ökologischer Sicht ein bedeutsames Forschungsgebiet, das sowohl durch erhöhten behördlichen Druck bei der Zulassung von Stoffen als auch durch Optimierungsbedarf bestehender Prozesse und Anwendungen vorangetrieben wird. Geminitenside sind eine verhältnismäßig neue Untergruppe der Tenside, die sich durch ihre häufig um ein Vielfaches höhere Grenzflächenaktivität auszeichnen und daher über enormes Potential verfügen. Die vorliegende Arbeit befasst sich sowohl mit der Synthese als auch der Charakterisierung neuartiger Pyridinium-Geminitenside. Dabei soll neben der rein empirischen Erfassung von Eigenschaften auch besonders auf die Einflüsse struktureller Parameter eingegangen werden, um mögliche Einflussfaktoren und Tendenzen identifizieren zu können. Im ersten experimentellen Abschnitt wird auf die Untersuchung einfacher Pyridinium-Tenside eingegangen, die sich durch das Nichtvorhandensein von Heteroatomen und funktionellen Gruppen außerhalb der kationischen Kopfgruppe besonders eignen, Effekte zu untersuchen, die sich aus der Dimerisierung der Tenside ergeben, sowie die Untersuchung der Einflüsse der Größe hydrophober Reste und der Gegenionen. Wechselwirkungen durch zusätzliche funktionelle Gruppen werden somit ausgeschlossen. Nicht allein die Mizellbildung, sondern auch die Löslichkeit unter besonderer Betrachtung der Krafftpunkte der Tenside, wurden durch Anwendung teils neuentwickelter Methoden untersucht. Die Effekte, die sich aus den strukturellen Variationen ergaben, konnten somit präzise identifiziert werden. Im zweiten experimentellen Abschnitt wird eine neuartige Tensidklasse, die im Rahmen dieser Arbeit dargestellt und untersucht wurde, vorgestellt. Dabei handelt es sich um über Amidgruppen verbrückte Geminitenside, basierend auf Aminopyridin. Die Tenside stellen einen interessanten Forschungsgegenstand aufgrund der besonderen Eigenschaften der Amidgruppen dar. Sie zeigen besonders starke kohäsive Eigenschaften, sodass deutliche Abweichungen von Standardmethoden in Synthese und Analytik der Verbindungen vonnöten waren. Die Löslichkeit der Verbindungen konnte in den meisten Fällen durch geeigneten Gegenionenaustausch verbessert werden. Die Tenside zeigen besondere Aggregationseigenschaften in wässrigen Lösungen. Neben den besonders niedrigen kritischen Aggregationskonzentrationen bildeten einige Formen höhere Aggregate aus. Wichtige strukturelle Einflussfaktoren, wie das Vorhandensein chiraler Zentren, konnten untersucht werden und die Eigenschaften supramolekularer chiraler Aggregate mit denen achiraler Aggregate verglichen werden. Die Ergebnisse vermitteln ein umfassendes Bild über den Einfluss verschiedenartiger struktureller Faktoren auf das Aggregationsverhalten neuartiger Pyridinium-Geminitenside. Grundlegende Erkenntnisse für weitere Forschungen auf diesem Feld wurden gewonnen und eröffnen eine Vielzahl weiterer interessanter Forschungsansätze. 110 448 606 Synthese, Struktur und Reaktivität neuer verbrückter Tetraorganodistannoxane und neuer multidentater Organozinn(IV)-Lewis-Säuren The present thesis entitled "Synthese, Struktur und Reaktivität neuer verbrückter Tetraorganodistannoxane und neuer multidentater Organozinn(IV)-Lewis-Säuren" is divided into two parts. Chapter 1 The aim of the first chapter of this thesis was the synthesis and characterization of novel spacer-bridged tetraorganodistannoxanes. The tetrachloroditin compounds [R(Cl2)SnCH2(Me2)SiCH2]2Z (8, Z = CºC, R = CH2SiMe3; 9, Z = CºC, R = CH2CMe3; 21, Z = O, R = CH2SiMe3; 22, Z = O, R = CH2CMe3) were synthesized. Reaction of compound 8 with cyclo-(t-Bu2SnO)3 provides quantitatively the dimeric tetraorganodistannoxane cis-{[R(Cl)SnCH2-(Me2)SiCºCSi(Me2)CH2Sn(Cl)R]O}2 (10, R = CH2SiMe3) with cis-configuration of the spacers. It is the first example for the isolation of a compound with this structural motif. Compound 10 can be converted by partial hydrolysis into the monohydroxy-substituted tetraorganodistannoxane cis-{[R(Cl)SnCH2(Me2)SiCºCSi(Me2)CH2-Sn(Cl)R]O}{[R(Cl)SnCH2(Me2)SiCºCSi(Me2)CH2Sn(OH)R]O} (12, R = CH2SiMe3). Compound 12 is kinetically inert in the solid state and is the first example for an isolated tetraorganodistannoxane with an asymmetric substitution pattern of the distannoxane core. The dihydroxy-substituted tetraorganodistannoxanes cis-{[R(Cl)Sn-CH2(Me2)SiCºCSi(Me2)CH2Sn(OH)R]O}2 (14, R = CH2SiMe3; 15, R = CH2CMe3) are accessible by controlled basic hydrolysis of the compounds 8 or 10 and 9. For the compounds 10, 12, 14, and 15 the cis-configuration was verified by single crystal X-ray diffraction. Reaction of the compounds 21 and 22 with cyclo-(t-Bu2SnO)3 provides the dimeric spacer-bridged tetraorganodistannoxanes cis,trans-{[R(Cl)SnCH2(Me2)SiO-Si(Me2)CH2Sn(Cl)R]O}2 (23, R = CH2SiMe3; 24, R = CH2CMe3). In solution, an equilibrium of the cis- and trans-isomers is present. The position of the dynamic cis-/trans-equilibria is influenced by the organic group R, the temperature, and the polarity of the solvent. The dihydroxy-substituted tetraorganodistannoxanes cis,trans-{[R(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn(OH)R]O}2 (25, R = CH2SiMe3; 26, R = CH2CMe3) are accessible by controlled basic hydrolysis of the compounds 23 and 24 being also present in solution in an dynamic cis-/trans-equilibrium. Single crystal X-ray diffraction of the compounds 23, 24, and 25 as well as 119Sn CP-MAS NMR spectra show the tetraorganodistannoxanes with the spacer -CH2(Me2)SiO-Si(Me2)CH2- to adopt only the trans-configuration in the solid state. Redistribution reactions of the compounds 23 and 25 or 24 and 26, respectively, provide in situ a statistic distribution of the monohydroxy-substituted tetraorganodistannoxanes cis,trans-{[R(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn(Cl)R]O}{[R(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn(OH)R]O} (27, R = CH2SiMe3; 28, R = CH2CMe3). Reaction of cyclo-CH2[CH2Sn(Cl2)CH2Si(Me2)]2O (36) with 2/3 mole equiva-lents of cyclo-(t-Bu2SnO)3 provides the novel hexastannoxane cis-{{{(Cl)SnCH2-(Me2)SiOSi(Me2)CH2Sn[OSn(Cl)t-Bu2]}(CH2)3}O}2 (37) with cis-configuration of the spacers. Exchange experiments with Me2SnCl2 show a kinetic lability of the exo-t-Bu2(Cl)SnO groups. Reaction of the organotetratin octachloride [R(Cl2)Sn(CH2)3Sn(Cl2)CH2]2CH2 (39, R = CH2SiMe3) with his corresponding organotin oxide {[R(O)Sn(CH2)3-Sn(O)CH2]2CH2}n (40, R = CH2SiMe3) provides a reaction product 41, the NMR- and ESMS-spectroscopic data of which point at the successful synthesis of the first tetraorganodistannoxane with quadruple ladder structure {{[R(Cl)Sn(CH2)3-Sn(Cl)CH2]2CH2}O2}4 (R = CH2SiMe3). So far, suitable single crystals for X-ray diffraction of compound 41 could not be grown. Die vorliegende Dissertation mit dem Titel "Synthese, Struktur und Reaktivität neuer verbrückter Tetraorganodistannoxane und neuer multidentater Organozinn(IV)-Lewis-Säuren" ist in zwei Teile gegliedert. Kapitel 1 Das Ziel des ersten Teils dieser Arbeit war die Synthese und Charakterisierung neuer verbrückter Tetraorganodistannoxane. Die Tetrachlordizinn-Verbindungen [R(Cl2)SnCH2(Me2)SiCH2]2Z (8, Z = CºC, R = CH2SiMe3; 9, Z = CºC, R = CH2CMe3; 21, Z = O, R = CH2SiMe3; 22, Z = O, R = CH2CMe3) wurden dargestellt. Die Umsetzung von Verbindung 8 mit cyclo-(t-Bu2SnO)3 gibt quantitativ das dimere Tetraorganodistannoxan cis-{[R(Cl)SnCH2-(Me2)SiCºCSi(Me2)CH2Sn(Cl)R]O}2 (10, R = CH2SiMe3) mit cis-Konfiguration der Verbrückungen. Es gelingt erstmals die Isolierung eines Distannoxans mit diesem Strukturmotiv. Verbindung 10 ist durch partielle Hydrolyse in das monohydroxysubstituierte Tetraorganodistannoxan cis-{[R(Cl)SnCH2(Me2)SiCºCSi(Me2)CH2-Sn(Cl)R]O}{[R(Cl)SnCH2(Me2)SiCºCSi(Me2)CH2Sn(OH)R]O} (12, R = CH2SiMe3) überführbar. Verbindung 12 ist im Festkörper kinetisch inert und stellt das erste Beispiel für ein isoliertes Tetraorganodistannoxan mit asymmetrischem Substitutionsmuster des Distannoxan-Grundgerüstes dar. Durch kontrollierte basische Hydrolyse der Verbindungen 8 oder 10 und 9 sind die dihydroxysubstituierten Tetraorganodistannoxane cis-{[R(Cl)SnCH2(Me2)SiCºCSi(Me2)CH2Sn(OH)R]O}2 (14, R = CH2SiMe3; 15, R = CH2CMe3) zugänglich. Für die Verbindungen 10, 12, 14 und 15 wurden die cis-Konfigurationen durch Einkristallröntgenstrukturanalysen belegt. Die Umsetzungen der Verbindungen 21 und 22 mit cyclo-(t-Bu2SnO)3 liefern die dimeren verbrückten Tetraorganodistannoxane cis,trans-{[R(Cl)SnCH2(Me2)SiO-Si(Me2)CH2Sn(Cl)R]O}2 (23, R = CH2SiMe3; 24, R = CH2CMe3). In Lösung liegen diese als Gemische ihrer cis- und trans-Isomere vor. Die Lage der dynamischen cis-/trans-Gleichgewichte wird durch den organischen Rest R, die Temperatur und die Polarität des Lösungsmittels beeinflußt. Durch kontrollierte basische Hydrolyse der Verbindungen 23 und 24 sind die dihydroxysubstituierten Tetraorganodistannoxane cis,trans-{[R(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn(OH)R]O}2 (25, R = CH2SiMe3; 26, CH2CMe3) zugänglich, die in Lösung ebenfalls in einem dynamischen cis-/trans-Gleichgewicht vorliegen. Durch Einkristallröntgenstrukturanalysen der Verbindungen 23, 24 und 25 sowie durch die Aufnahme von 119Sn-MAS-NMR-Spektren konnte gezeigt werden, daß die Tetraorganodistannoxane mit der Verbrückung -CH2(Me2)Si-OSi(Me2)CH2- im Festkörper ausschließlich in der trans-Konfiguration vorliegen. Redistributionsreaktionen der Verbindungen 23 und 25 bzw. 24 und 26 liefern in situ eine statistische Verteilung der monohydroxysubstituierten Tetraorganodistannoxane cis,trans-{[R(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn(Cl)R]O}{[R(Cl)SnCH2(Me2)SiO-Si(Me2)CH2Sn(OH)R]O} (27, R = CH2SiMe3; 28, R = CH2CMe3). Bei der Umsetzung von cyclo-CH2[CH2Sn(Cl2)CH2Si(Me2)]2O (36) mit 2/3 Moläquivalenten cyclo-(t-Bu2SnO)3 entsteht das neuartige Hexastannoxan cis-{{{(Cl)SnCH2(Me2)SiOSi(Me2)CH2Sn[OSn(Cl)t-Bu2]}(CH2)3}O}2 (37) mit cis-Konfiguration der Verbrückungen. Austauschexperimente mit Me2SnCl2 zeigen eine kinetische Labilität der exoständigen t-Bu2(Cl)SnO-Gruppen. Bei der Reaktion des Organotetrazinnoctachlorids [R(Cl2)Sn(CH2)3Sn(Cl2)-CH2]2CH2 (39, R = CH2SiMe3) mit seinem korrespondierenden Organozinnoxid {[R(O)Sn(CH2)3Sn(O)CH2]2CH2}n (40, R = CH2SiMe3) konnte ein Reaktionsprodukt 41 isoliert werden, dessen NMR- und ESMS-spektroskopische Daten auf die erfolgreiche Darstellung des ersten Tetraorganodistannoxans mit Vierfachleiterstruktur {{[R(Cl)Sn(CH2)3Sn(Cl)CH2]2CH2}O2}4 (R = CH2SiMe3) belegen. Eine Einkristallröntgenstrukturanalyse von Verbindung 41 gelang bisher nicht. Kapitel 2 Das Ziel des zweiten Teils dieser Arbeit war die Synthese und Charakterisierung neuer zinn- und siliciumhaltiger multidentater Lewis-Säuren. Bei der Reaktion von [Me2(H)SiCH2(Ph2)SnCH2]2CH2 (1) mit HgCl2 konnten die zehngliedrige Ringverbindung cyclo-CH2[CH2Sn(Cl2)CH2Si(Me2)]2O (3) sowie die zwanziggliedrige Ringverbindung cyclo-CH2[CH2Sn(Cl2)CH2Si(Me2)OSi(Me2)CH2-Sn(Cl2)CH2]2CH2 (4) isoliert werden. Die Ringverbindungen entstehen in einer neuen Eintopfreaktion, die die Phenylgruppensubstitution am Zinn mit der Konvertierung von SiH- zu SiOSi-Funktionen kombiniert. Die ringöffnende Polymerisation der Verbindungen 3 und 4 liefert das erste zinnhaltige Lewis-acide Polymer poly-[Si(Me2)CH2Sn(Cl2)(CH2)3Sn(Cl2)CH2Si(Me2)O]n (5). In einer analogen Reaktion konnte die achtgliedrige Ringverbindung cyclo-CH2[Sn(Cl2)CH2Si(Me2)]2O (15) dargestellt werden. Die ringöffnende Polymerisation von Verbindung 15 und ihrem perphenylsubstituierten Derivat cyclo-CH2[Sn(Ph2)-CH2Si(Me2)]2O (16) gelang nicht. Die Ringöffnung von Verbindung 15 mit Me3O+BF4- ergibt quantitativ [Me2(F)SiCH2(Cl2)Sn]2CH2 (17), das im Festköper als eindimensionales Polymer mit intermolekularen Si-F×××Sn-Brücken vorliegt. An diesem Beispiel wird erstmals eine derartige Wechselwirkung beschrieben. Der zehngliedrige Ring 3 und der achtgliedrige Ring 15 bilden stabile 1:1-Komplexe mit Chloridionen, wohingegen der zwanziggliedrige Ring 4 einen 1:8-Komplex realisiert. Sowohl die Verbindungen 3 und 15 als auch ihre Chloridkom-plexe mit [(Ph3P)2N]+Cl- (8) und (18) wurden mittels Einkristallröntgenstrukturanalyse charakterisiert. [cyclo-CH2[Sn(Cl2)CH2Si(Me2)]2O×F]-[K×Dibenzo-18-Krone-6]+ (20) ist das erste Beispiel für einen Fluoridkomplex eines Diorganozinndichlorids, der mittels Einkristallröntgenstrukturanalyse beschrieben wird. 111 115 91 From being full of fault to man of action? Managers in East Germany as creators of a productive corpoate and work organization The article or shows, how managers within the East German industry are approaching the design of corporate and work structures. Based on case studies the relations between structural conditions of managerial acting, definitions of the situation, the course of acting and its outcomes are pointed out. Resulting from managerial acting within the East German firms, operating successfully on the market, structures and ways of functioning of the corporate and work organization have come into existence which include from elements out of the Tayloristic tradition as well as elements which go beyond this tradition. Vom Mängelwesen zum Macher? 112 439 375 Determination of the interface structures of the multilayer system MgO/Fe/GaAs(001) Die vorliegende Arbeit befasst sich mit der Untersuchung der Grenzflächen des Spintronik Mehrschichtsystems MgO/Fe/GaAs(001). Der magnetische Tunnelwiderstand (TMR) und der Riesenmagnetowiderstand (GMR), die in Spintronikbauelementen Anwendung finden, treten an den Grenzflächen auf und werden durch die chemischen und strukturellen Eigenschaften beeinflusst. Die Photoelektronenspektroskopie eignet sich besonders zur Analyse von dünnen Filmen und Grenzstrukturen von Mehrschichtsystemen. Sie ermöglicht eine genaue chemische Untersuchung über hochaufgelöste Spektren der Rumpfniveaus einzelner Elemente. Die spektralen Komponenten in einem Signal beinhalten Informationen über die lokalen Bindungen, z.B. ob der Emitter in einen Oberflächen-Dimer oder in einer tiefer liegende Schicht gebunden ist. Die Signalintensität variiert als Funktion von Polar- und Azimutwinkel. Ursächlich hierfür sind Beugungs- und Streuungseffekte der emittierten Elektronenwelle an benachbarten Atomen. Die Kombination aus hochaufgelösten Spektren und Beugungsbildern erlaubt eine detaillierte Analyse jeder einzelnen Schicht. Das MgO/Fe/GaAs(001)-System wurde in-situ präpariert und sukzessive unter Verwendung von Synchrotronstrahlung der Strahllinie 11 des Speicherings DELTA untersucht. Dabei wurde die Notwendigkeit einer GaAs Oberflächenrekonstruktion für epitaktisches Wachstum des Fe-Films nachgewiesen. Die Spektren der Fe/GaAs(4x2) und Fe/GaAs(001) Systeme weisen eindeutige chemische Bindungen auf. Die Beugungsbilder zeigen ein epitaktisches Wachstum von Fe auf GaAs(4x2) in einer pyramidalen Struktur, die durch das gleichzeitige Insel- und Lagenwachstum verursacht wird. Das Eisen reichert sich auf einer gereinigten GaAs(001) Oberfläche an, allerdings ist die Austausch-Diffusion so stark, dass der Fe-Film komplett amorph ist. Die Ga-reiche (4x2)-Rekonstruktion verhindert eine Diffusion und gewährleistet ein epitaktisches Wachstum der Fe-Schicht. Das MgO wurde auf der wohlgeordneten Fe(001)-Oberfläche aufgebracht und ist dort epitaktisch aufgewachsen. Die Fe-Oberfläche ist aufgrund der MgO-Anlagerung oxidiert, was sich in einer zwei Lagen dünnen FeO-Schicht zeigt. Der MgO-Film liegt in einer Steinsalzstruktur vor, bildet aber einen Gitterfehler in Form von leicht verschobenen Mg-Atomen aus. Diese Verschiebung ist sowohl für den dünnen als auch für einen dickeren Film vorhanden. Dies könnte durch das Substrat induziert sein, da die MgO/Fe Grenzfläche deutlich durch die Fe/GaAs Grenzstruktur beeinflusst wird. Chemische und strukturelle Veränderungen beeinflussen die magnetischen Eigenschaften des Mehrlagensystems. Daher wurden diese durch Magneto-optische Messung mittels T-MOKE untersucht. Die Spektren zeigen eine starke Reaktion des Eisens auf das externe magnetische Feld. Die Analyse der T-MOKE Daten ergab weder magnetischen Eigenschaften des GaAs-Substrats noch der dünne MgO-Schicht. Eine zusätzliche Hysterese Messung belegt die exzellenten ferromagnetischen Eigenschaften der Fe Zwischenschicht trotz der chemischen und strukturellen Veränderungen. 113 210 195 Local dynamics of the single-band Hubbard model in infinite dimensions via dynamic density-matrix renormalization This work comprise a DMFT analysis of the metallic solutions of the single-band Hubbard model. For solving the involved single-impurity Anderson model, the dynamic density-matrix renormalization (D-DMRG) is used. After an introduction into the field of “strongly correlated electrons” and the approximation “dynamic mean-field theory”, the impurity solver D-DMRG is described and comprehensively validated. D-DMRG allows us to calculate local dynamic quantities such as spectral densities, self-energies and (dynamic) susceptibilities which we analyze for the half-filled case for the semielliptic, the rectangular and the triangular DOS and for the semielliptic DOS with doping. We use D-DMRG in a DMFT framework in order to analyze the origin of the kinks in the real part of the self-energy which occur within the energy range of the quasi-particle peak. The guiding hypothesis throughout this thesis is that those kinks are caused by an additional decay channel of the quasi-particle which is provided by the coupling of the quasi-particle to bosonic excitations. Within a DMFT framework only the local bosonic excitations such as spin-, charge- and pair-excitations are relevant. In all cases it turns out that spin-excitations are the bosonic excitations that provide the new decay channel for the quasi-particle. Diese Arbeit beschäftigt sich mit der dynamische Molekularfeldtheorie (DMFT) des Ein-Band- Hubbard-Modells im Parameterbereich des stark korrelierten Metalls. Zur Lösung des lokalen Ein- Störstellen-Anderson-Modells wird die dynamische Dichtematrixrenormierung (D-DMRG) benutzt. Nach einer Einführung in das Forschungsfeld der stark korrelierten Elektronen und der benutzten DMFT wird der Störstellenlöser D-DMRG beschrieben und ausführlich geprüft. D-DMRG ermöglicht die Berechnung von lokalen dynamischen Größen wie spektrale Dichten, Selbstenergien und dynamischen Suszeptibilitäten. Die gerade genannten dynamischen Größen werden für die semielliptische, rechteckige und dreieckige freie DOS bei halber Füllung berechnet sowie für die semielliptische DOS abseits halber Füllung. Wir benutzen den DMFT(D-DMRG) Zugang, um den Ursprung der Knicke im Realteil der Selbstenergie aufzuklären, die im Energiebereich des Quasi- Teilchens auftreten. Die Leitidee während der gesamten Arbeit ist, dass diese Knicke durch einen weiteren Zerfallskanal des Quasi-Teilchens zu Stande kommen, der durch die Ankopplung des Quasi-Teilchens an bosonische Anregungen bereit gestellt wird. Innerhalb der DMFT sind nur lokale bosonische Anregungen und zwar Spin-, Ladungs- und Cooper-Paar-Anregungen relevant. Wir haben für alle genannten DOS die benötigten lokalen dynamischen Größen berechnet und heraus bekommen, dass in allen Fällen Spin-anregungen die gesuchten bosonischen Anregungen sind, die den neuen Zerfallskanal für das Quasi-Teilchen bereit stellen. 114 96 78 Alternative Perspektiven der Beratungsforschung Praxistheorie vs. Systemtheorie In der theoriegeleiteten Beratungsforschung fi nden sich zwei zentrale Theorieansätze. Auf der einen Seite sind dies Studien, die im weitesten Sinne der Praxistheorie zuzurechnen sind. Auf der anderen Seite existieren recht umfangreiche Forschungsarbeiten, die sich explizit auf die neuere Systemtheorie beziehen. Im vorliegenden Beitrag werden die beiden Ansätze gegenübergestellt und im Hinblick auf ihre Leistungsfähigkeit untersucht. Dazu werden die jeweiligen Grundannahmen der Theorien herausgearbeitet und bezüglich ihrer Konsequenzen für die Konzeptualisierung der Beratung analysiert. 115 267 224 The bilinear-exponential closed-orbit model and its application to storage ring beam diagnostics In periodic focusing systems of accelerators, the particle beam is mapped onto its own closed trajectory (respectively closed orbit). Perturbations of this closed orbit are induced by imperfect accelerator parts and can be compensated by special magnetic devices (correctors). The beam diagnostics using beam position monitors (BPMs), as well as the characterization of corrector magnets by measurement of a so-called response matrix, which are both needed for orbit correction, are routinely performed at many storage rings around the world. Furthermore, the single-particle motion (beam optics) around the closed orbit is of interest due to its implication on beam stability and performance, but could hitherto only be observed by use of additional special hardware or, in approximation, by simulations using the complete magnetic setup of the respective storage ring. It is known that response matrices hold significant information about beam optics, although in an encrypted form. As response matrices are routinely measured at many storage rings without additional hardware, their decomposition is of particular interest. In the present work, an algorithm called Closed-Orbit Bilinear-Exponential Analysis (COBEA) is being developed, with which it is possible to decompose response matrices into beam-optical information with a minimal set of assumptions. The analysis is based on a reduced and simulataneously generalized description of closed-orbit perturbations in dependence of beam parameters at monitor and corrector positions. In closing, COBEA is compared against existing measurement methods, which either need more hardware or more assumptions, and is succesfully validated against them. COBEA can therefore be used at many storage rings around the world. Im periodischen Fokussiersystem eines Speicherrings wird der Teilchenstrahl auf einen geschlossenen Orbit, d.h. eine sich wiederholende Teilchenbahn durch den Beschleuniger, abgebildet. Störungen dieses geschlossenen Orbits werden durch fehlerhafte Beschleunigerelemente erzeugt und durch spezielle Magnetstrukturen (Korrektoren) kompensiert. Die zur Kompensation erforderliche Diagnose über Strahlpositionsmonitore (BPMs) sowie die ebenfalls notwendige Charakterisierung der Korrektoren über Messung der sog. Responsematrix wird routinemäßig an vielen Speicherringen weltweit durchgeführt. Weiterhin ist die Bewegung der Einzelteilchen um den geschlossenen Orbit (Strahloptik) aus Stabilitätsgründen interessant, konnte jedoch bisher nur mittels zusätzlicher Spezialhardware beobachtet oder näherungsweise durch Simulation mithilfe eines vollständigen magnetischen Modells des Beschleunigers abgeschätzt werden. Es ist bekannt, dass in Responsematrizen ebenfalls aufschlussreiche Informationen über die Einzelteilchenbewegung um die Sollbahn (Strahloptik), wenn auch in verschlüsselter Form, enthalten sind. Da Responsematrizen routinemäßig an vielen Speicherringen aufgenommen werden und keine zusätzliche Hardware erfordern, ist ihre "Entschlüsselung" von besonderem Interesse. In der vorliegenden Arbeit wird ein Algorithmus mit dem Namen COBEA (Closed-Orbit Bilinear-Exponential Analysis) entwickelt, mit dessen Hilfe Responsematrizen in strahloptische Informationen zerlegt werden können. Grundlage dafür ist eine reduzierte und zugleich verallgemeinerte Darstellung der Störungen des geschlossenen Orbits (Bilinear-Exponentielles Modell) in Abhängigkeit von Strahlparametern an Monitor- und Korrektorpositionen. Abschliessend wird COBEA an drei Speicherringen (DELTA, MLS, BESSY II) mit existierenden Methoden, welche alle entweder zusätzliche Hardware oder zusätzliche Annahmen erfordern, verglichen und erfolgreich validiert. COBEA kann somit an vielen Speicherringen weltweit eingesetzt werden. 116 156 114 Teachers’ self-reported teaching practices in inclusive mathematics classrooms—an interview study Selbstberichtete Praktiken von Lehrkräften im inklusiven Mathematikunterricht – Eine Interviewstudie Within the model of content-related expertise, we characterize how teachers realize inclusive education in mathematics classrooms by the teaching practices they enact to master typical didactical jobs: (1) identify potential demands and notice students’ abilities, (2) differentiate priorities, e.g. learning goals with respect to identified ability and compensate limited abilities by scaffolding, (3) enhance targeted learning goal with respect to ability, and (4) orchestrate joint learning. The qualitative interview study investigates teachers’ self-reported practices with respect to the underlying inclusive orientations and categories for perception and thinking. 17 teachers were interviewed, they describe and reflect their practices within the same teaching unit on percentages in Grade 7. The qualitative analysis identifies five recurring leading categories: social participation, occupation, task propensity, content participation and adaptive learning progressions; teachers change between the five. The analysis shows how the leading categories are expressed in the different jobs and practices. Wie Lehrkräfte ihren inklusiven Mathematikunterricht ausgestalten, wird im Modell der gegenstandsbezogenen Expertise dadurch charakterisiert, welche Praktiken sie zur Bewältigung typischer didaktischer Anforderungssituationen nutzen: Lernvoraussetzungen identifizieren und diagnostizieren, differenzieren, fördern und gemeinsames Lernen anregen. Die qualitative Interviewstudie untersucht die selbstberichteten Praktiken der Lehrkräfte bzgl. der zugrundeliegenden inklusionsbezogenen Orientierungen und Wahrnehmungs- und Denkkategorien. Interviewt werden 17 Lehrkräfte, die ihre Praktiken beschreiben und reflektieren, und zwar alle zur gleichen Unterrichtseinheit „Prozente verstehen“ (Klasse 7). Die qualitative Analyse rekonstruiert fünf typische Leitkategorien: soziale Teilhabe, Beschäftigung, Aufgabenbewältigung, inhaltliche Teilhabe und stufengerechte Lernzuwächse, zwischen denen die Lehrkräfte wechseln. Die Analyse zeigt, wie sich diese Leitkategorien in den Praktiken genauer ausprägen. 117 189 129 Schlechte Zeiten für die Mitbestimmung? After 45 years of co-determination in the steel and coal-mining industries and ever since the co-determination act of 1976 has been in practice for 20 years, the following essay tries to give an account. In times of globalization and increasing risks for institutional structures, which have been stable for some decades, shareholder value concepts leave their mark on the politics of enterprises, risks and damages of the functions of co-determination on the enterprise as well as on the factory level are to be observed, the trade unions' idea of co-determination itself is exposed to a self-critical examination and when managerial participation concepts occupy the original place of co-determination with, the author standing up for the German model of institutionalized co-determination. Especially in such times of radical changes, it is necessary to put emphasis on the historical achievements of co-determination and the importance of its institutionalization by law, which does not completely accord with the pure logic of the market. But it is also necessary to remind of reforms of the institutional structures and to look for points of contact for a further evolution of co-determination in its everyday practice. Nach 45 Jahren Montanmitbestimmung und zwanzig Jahren Mitbestimmungsgesetz´76 versucht der vorliegende Aufsatz eine Standortbestimmung. In Zeiten der Globalisierung und Infragestellung langjährig bewährter institutioneller Strukturen, in denen shareholder value concepts Unternehmenspolitiken prägen, Funktionsverluste und Gefährdungen der Mitbestimmung in Unternehmen und Betrieb zu beobachten sind, die gewerkschaftliche Mitbestimmungsidee selbstkritischen Überprüfungen unterworfen ist, und unternehmerische Partizipionskonzepte ihr ureigenstes Feld besetzt haben, bricht der Autor eine Lanze für das bundesrepublikanische Modell der institutionalisierten Mitbestimmung. Gerade in solchen Umbruchsituationen gilt es, historische Leistungen des deutschen Mitbestimmungsmodells sichtbar zu machen und auf die Bedeutung seiner rechtlichen Institutionalisierung zu verweisen, die einer reinen Marktlogik nicht entspricht. Aber es ist auch notwendig, Reformen der erreichten institutionellen Strukturen anzumahnen und in der alltäglichen Praxis der Mitbestimmung die Anknüpfungspunkte für ihre Weiterentwicklung deutlicher herauszuarbeiten. 118 408 346 Inference-proof materialized views Nowadays, publishing of data is ubiquitous, but usually only permitted when complying with a confidentiality policy to respect privacy or other secrecy concerns. To this end, this thesis proposes an approach to weaken an original database instance to a weakened view on this instance. This view is inference-proof in the sense of "Controlled Interaction Execution" and does hence provably not enable an adversary to infer confidential knowledge – even if this adversary tries to deduce confidential knowledge on the basis of a released weakened view, his general awareness of the protection mechanism and some a priori knowledge he might possibly have about the original database instance or the world in general. To achieve this goal within a logic-oriented modeling, all pieces of definite knowledge that compromise an element of a confidentiality policy are (whenever possible) replaced by weaker but true disjunctions of policy elements. Although this disjunctive knowledge deliberately introduces uncertainty about confidential knowledge, it still provides more information about the original database instance than complete refusals of confidential knowledge. To further guarantee that all of these weakening disjunctions are – with respect to a considered application scenario – both credible in terms of confidentiality and meaningful in terms of availability, a criterion specifying which policy elements might possibly be grouped together to an admissible weakening disjunction can be defined. This approach is first developed in a generic way in the sense that non-trivial disjunctions of any length ≥ 2 might be employed and the achieved level of confidentiality varies with the length of disjunctions. Thereby, all knowledge is modeled within a restricted but expressive subclass of first-order logic, which allows for efficient decisions on the validity of implication relationships without general theorem proving. Afterwards, an availability-maximizing instantiation of this generic approach is presented, which aims at constructing disjunctions of length 2 efficiently on the basis of graph clustering, and is then also extended to handle an adversary's a priori knowledge in the form of a restricted subclass of well-known "Tuple Generating Dependencies" without losing its inference-proofness or efficiency. To demonstrate the practical efficiency of this (extended) availability-maximizing approach, a prototype implementation is developed and evaluated under different experiment setups. Thereby, disjunctions are constructed on the basis of an admissibility criterion, which (locally) maximizes availability within a disjunction in the sense that both of its disjuncts differ in only one constant parameter and thereby generalizes this constant parameter to a wider set of possible values. Obwohl die Veröffentlichung von Daten heutzutage allgegenwärtig ist, ist diese häufig nur dann gestattet, wenn dabei Vertraulichkeitsanforderungen beachtet werden. Vor diesem Hintergrund wird in dieser Arbeit ein Ansatz entwickelt, um abgeschwächte Sichten auf gegebene Datenbankinstanzen zu erzeugen. Eine solche abgeschwächte Sicht ist dabei inferenzsicher im Sinne der sogenannten "Kontrollierten Interaktionsauswertung" und verhindert damit beweisbar, dass ein Angreifer vertrauliche Information erlangen kann – selbst dann, wenn dieser Angreifer versucht, diese Information unter Zuhilfenahme seiner Kenntnis über den Sicherheitsmechanismus und etwaigem Vorwissen über die Datenbankinstanz oder allgemeine Sachverhalte logisch zu erschließen. Dieses Ziel wird innerhalb einer logik-orientierten Modellierung verwirklicht, in der alles sichere Wissen, das die Vertraulichkeitspolitik verletzt, (soweit möglich) durch schwächere, aber dennoch wahre Disjunktionen bestehend aus Elementen der Vertraulichkeitspolitik ersetzt wird. Auch wenn dieses disjunktive Wissen bewusst Unsicherheit über vertrauliche Information erzeugt, stellt es dennoch mehr Information als eine vollständige Geheimhaltung von vertraulicher Information bereit. Um dabei sicherzustellen, dass Disjunktionen im Hinblick auf ein betrachtetes Einsatzszenario sowohl glaubwürdig als auch aussagekräftig sind, kann ein Kriterium definiert werden, aus welchen Kombinationen von Elementen der Vertraulichkeitspolitik eine mögliche Disjunktion bestehen kann. Dieser Ansatz wird erst in einer generischen Variante entwickelt, in der nicht-triviale Disjunktionen jeder Länge ≥ 2 zum Einsatz kommen können und das erreichte Maß an Vertraulichkeit mit der Länge der Disjunktionen variiert. Dabei wird jegliches Wissen in einem eingeschränkten, aber dennoch vielfältig einsetzbaren Fragment der Prädikatenlogik modelliert, in dem die Gültigkeit von Implikationsbeziehungen effizient ohne den Einsatz von Theorembeweisern entschieden werden kann. Anschließend wird eine Variante dieses generischen Ansatzes vorgestellt, die die Verfügbarkeit maximiert, indem Disjunktionen der Länge 2 effizient mit Hilfe von Clustering auf Graphen konstruiert werden. Diese Variante wird daraufhin derart erweitert, dass sie auch dann effizient inferenzsichere Sichten erzeugen kann, wenn ein Angreifer Vorwissen in Form einer eingeschränkten Unterklasse von sogenannten "Tuple Generating Dependencies" hat. Um die Effizienz dieser (erweiterten) Verfügbarkeit maximierenden Variante zu demonstrieren, wird ein Prototyp unter verschiedenen Testszenarien erprobt. Dabei kommt ein Kriterium zur Konstruktion möglicher Disjunktionen zum Einsatz, das (lokal) die Verfügbarkeit innerhalb von Disjunktion maximiert, indem sich beide Disjunkte einer solchen Disjunktion nur in genau einer Konstante unterscheiden. 119 331 265 Investigation of the electronic structure of CuO by means of resonant X-ray Raman Scattering Untersuchung der elektronischen Struktur von CuO mit resonanter Röntgen-Raman-Streuung In this thesis the electronic structure of CuO is investigated utilizing resonant X-ray Raman Scattering. The special properties of this transition metal oxide are emphasized and the potential of the method is shown. First it is explained how one can draw conclusions about the unoccupied density of states of CuO and its symmetry from measurements of the copper K-alpha fluorescence by using an excitation energy of a few eV below the absorption threshold. By this means one can make use of the fact that different intermediate states of the resonant scattering process can be separated by the so-called Raman-shift. Moreover, the magnitude of the contributions of intermediate states of different symmetry to the fluorescence spectrum strongly depend on the polarisation of the incident x-ray beam. Thereby, three features in the measured spectra can be identified and can be attributed to different intermediate states. Another aspect of this thesis is the study of the interaction between the 1s core-hole in the intermediate state of the scattering process and the localized 3d-electrons of copper in CuO. At excitation energies of a few eV above the absorption threshold of the copper K-edge this interaction leads to the so-called shakeup-satellites in the energy loss spectra. In the special case of CuO such a satellite shows up at an energy loss of about 5 eV. This satellite is attributed to an excitation from the binding ground state of the 3d-electron system to an antibinding excited state. By means of a perturbation theoretical treatment of the Coulomb interaction between the core-hole and the 3d-electrons an expression for the cross-section of the shakeup-process is derived. Thereby the observed excitation energy dependence of the shakeup-satellite's intensity and its position in the energy loss spectrum can be explained. Furthermore, its intensity shows a strong dependence on the scattering angle in certain scattering geometries. By means of a model calculation this dependence is attributed to a polarisation-effect. In dieser Arbeit wird die elektronische Struktur von CuO mit der Methode der resonanten Röntgen-Raman-Streuung untersucht. Dabei werden sowohl die Besonderheiten dieses Übergangsmetalloxids herausgestellt, als auch das Potenzial der Methode aufgezeigt. Zunächst wird erläutert, wie sich durch die Messung von Kupfer-K-alpha Fluoreszenzspektren bei einer Anregungsenergie wenige eV unterhalb der Kupfer K-Kante Rückschlüsse über die unbesetzte Zustandsdichte von CuO und deren Symmetrie ziehen lassen. Dabei wird ausgenutzt, dass verschiedene Zwischenzustände des resonant unelastischen Streuprozesses durch die sogenannte Raman-Verschiebung voneinander getrennt werden können. Weiterhin sind die Beiträge von Zwischenzuständen verschiedener Symmetrie zum Fluoreszenzspektrum stark von der Polarisation des einfallenden Röntgenstrahls abhängig. Auf diese Weise lassen sich drei Strukturen in den gemessenen Spektren identifizieren und eindeutig unterschiedlichen Zwischenzuständen zuordnen. Ein weiterer Aspekt der Arbeit ist die Untersuchung der Wechselwirkung des 1s-Rumpflochs im Zwischenzustand mit den stark lokalisierten Kupfer 3d-Elektronen im CuO. Bei Anregungsenergien wenige eV oberhalb der Kupfer K-Kante führt diese Wechselwirkung zu sogenannten Shakeup-Satelliten in den Energieverlustspektren. Im speziellen Fall des CuO tritt ein solcher Satellit bei einem Energieverlust von etwa 5 eV auf und lässt sich einer Anregung aus dem bindenden Grundzustand des 3d-Elektronensystems in einen antibindenden angeregten Zustand zuordnen. Durch eine störungstheoretische Behandlung der Coulomb-Wechselwirkung zwischen dem Rumpfloch und den 3d-Elektronen wird ein Ausdruck für den Streuquerschnitt des Shakeup-Prozesses hergeleitet. Mit dessen Hilfe lässt sich die beobachtete Abhängigkeit der Intensität des Shakeup-Satelliten und seiner Position im Energieverlustspektrum von der Anregungsenergie erklären. In bestimmten Streugeometrien ist zudem eine starke Streuwinkelabhängigkeit der Intensität des Satelliten zu beobachten. Im Rahmen einer Modellrechnung wird diese Abhängigkeit auf einen Polarisationseffekt zurückgeführt. 120 415 327 Design, organization and implementation of a methods pool and an application systematics for condition based maintenance The everyday increasing competition in industry and the compulsion of faster investment paybacks for complex and expensive machinery, in addition to operational safety, health and environmental requirements, take for granted high availability of the production machinery and high and stable quality of products. These targets are reached only if the machinery is kept in proper working condition by utilizing an appropriate maintenance tactic. In this frame of thought, monitoring of machinery systems has become progressively more important in meeting the rapidly changing maintenance requirements of today’s manufacturing systems. Besides, as the pressure to reduce manning in plants increases, so does the need for additional automation and reduced organizational level maintenance. Augmented automation in manufacturing plants has led to rapid growth in the number of machinery sensors installed. Along with reduced manning, increased operating tempos are requiring maintenance providers to make repairs faster and ensure that equipment operates reliably for longer periods. To deal with these challenges, condition based maintenance (CBM) has been widely employed within industry. CBM, as a preventive and predictive action, strives to identify incipient faults before they become critical through structural condition assessment derived from Different condition monitoring techniques (CMT) and nondestructive tests (NDT). An effective CBM program requires early recognition of failures and accurate identification of the associated attributes in a feasible manner. The achievement of this proficiency in industry is still intricate and relatively expensive due to deficient information about the potential failures as well as inadequate knowledge or improper application of different CMTs and NDTs. Accordingly, a new toolbox has been developed to facilitate and sustain effective CBM programs in the automotive supply industry. The CBM toolbox is consisted of three major tools. The first tool is a series of statistical failure analyses which uses the failure history data available in a plant’s information system to generate valuable information in tabulated and graphical postures. The second tool is a repository filled with expert knowledge about different CMTs and NDTs formatted in a way that in addition to the concept of each technique, its applicability, detectability, and its pros and cons are expressed. The third tool is an object based problem and cause analysis whose outcome is tabulated problem-cause relationships associated with particular machinery objects. These major tools are also accompanied by two supplementary tools, a financial analysis tool and a selection matrix, to ensure feasibility of all undertaken decisions while using the toolbox. Zunehmender Wettbewerb in der Industrie erfordert immer kürzere Amortisationszeiten von kapitalintensiven Produktionsanlangen. Wesentliche Voraussetzungen für die Realisierung kurzer Amortisationszeiträume sind eine hohe Verfügbarkeit der Anlagen und das Erreichen einer gleichmäßig hohen und konstanten Produktqualität. Eine effiziente Instandhaltungsstrategie unterstützt diese Anforderungen an die Verfügbarkeit und an die Produktqualität, vor allem durch eine geringe Bedarfswartung und zunehmend vorbeugende Instandhaltungsbemühungen. In der Industrie wird hierzu häufig die zustandsbasierte Instandhaltung (Condition Based Maintenance - CBM) angewendet. Die CBM Methode versucht aus Zustandseinschätzung der Maschinen, abgeleitet von verschiedenen Zustandsüberwachungs-Verfahren (Condition Monitoring Technique - CMT) und zerstörungsfreien Prüfungen (Nondestructive Test - NDT), erste Mängel zu identifizieren, bevor sie sich kritisch auf die Produktion auswirken. Ein effektives CBM Programm verlangt eine frühe Fehlererkennung und eine genaue Identifikation der Fehlerattribute. Diese Anforderungen werden in der Industrie heute noch unzureichend erfüllt. Die Ursache liegt vor allem in den hohen Kosten, die sich aufgrund unzureichender Information über die potenziellen Fehler ergeben, sowie in der unzulänglichen Kenntnis oder ungeeigneten Anwendung von verschiedenem CMTs und NDTs begründet. Daher werden im Rahmen dieser Arbeit eine neuartige Toolbox und ein Anwendungskonzept entwickelt, um die Umsetzung eines effektiven CBM Programms in der Automobil-Zulieferindustrie zu unterstützen. Hierbei ist der Ansatz so allgemein gewählt, dass er nicht nur auf das Anwendungsgebiet der Automobilindustrie beschränkt ist, sondern auch auf die allgemeine Herstellungs- oder Produktionsindustrie angewendet werden kann. Die CBM-Toolbox setzt sich aus drei Hauptwerkzeugen zusammen. Das erste Werkzeug fasst statistische Fehler-Analysen zusammen, die die in einem Informationssystem des Betriebes vorhandenen Fehlerdaten auswertet, um die relevanten Informationen tabellarisch bzw. grafisch darzustellen. Das zweite Werkzeug ist eine Wissensdatenbank in der das Expertenwissen über verschiedene CMTs und NDTs verwaltet wird. Dieses Expertenwissen ist so strukturiert, dass zusätzlich zu jeder Methode, ihre Anwendbarkeit, Nachweisbarkeit und Vorteile bzw. Nachteile dargestellt werden. Das dritte Werkzeug ist eine objektbasierte Problem-und-Ursache-Analyse, deren Ergebnis eine tabellarisch dargestellte Problem-Ursache Beziehung von besonderen Maschinenanlagen ist. Diese Hauptwerkzeuge werden durch zwei weitere Werkzeuge, ein Finanzanalyse-Werkzeug und eine Auswahlmatrix ergänzt, die die verschiedenen Entscheidungsmöglichkeiten hinsichtlich der Umsetzbarkeit bewertet. 121 354 319 Investigation of transient processes at the DELTA electron storage ring using a digital bunch-by-bunch feedback system At the 1.5-GeV synchrotron radiation source DELTA, operated by the TU Dortmund University, intensive synchrotron radiation in the spectral range from hard X-rays to THz radiation is generated by the circular deflection of highly relativistic electron bunches. Interacting with the vacuum chamber wall, the electron bunches create electric fields, which can act back on subsequent bunches. With increasing beam current, the excitation is enhanced so that the electron beam is unstable, which means that the electron bunches oscillate longitudinally or transversely relative to their reference position. The oscillations reduce the quality of the synchrotron radiation and limit the maximum storable beam current. Within the scope of this thesis, the beam instabilities at the storage ring were systematically investigated. A digital bunch-by-bunch feedback system was installed and commissioned, which allows to detect and digitize the position of each electron bunch at each turn. Based on the input signal, a correction signal is calculated in order to suppress transverse and longitudinal oscillation of the bunches. In addition, it is possible to excite dedicated bunches. The systematic excitation of all coupled-bunch modes allowed for the first time to determine the damping rates of all 192 eigenmodes of the electron beam. The current dependence of the damping rates was investigated and an instability threshold was found. Besides the investigation of multibunch instabilities, single-bunch instabilities are discussed. In addition, the acquisition unit of the digital feedback system can be triggered on external events. This was used to investigate the injection process and beam losses. It was shown that the transverse feedback system increases the injection efficiency. Another aspect of this thesis is the improvement of the signal quality of ultrashort coherent synchrotron radiation pulses, which are generated by the short-pulse facility at DELTA. The short-pulse facility is based on coherent harmonic generation (CHG), in which an interaction of femtosecond laser pulses with electron bunches creates coherent synchrotron radiation in the VUV regime. It was shown that in hybrid mode the signal intensity can be increased by the use of the longitudinal feedback system. An der 1.5-GeV Synchrotronstrahlungsquelle DELTA, betrieben von der Technischen Universität Dortmund, wird intensive Synchrotronstrahlung im Spektralbereich von harter Röntgenstrahlung bis zur THz-Strahlung durch die Kreisbeschleunigung hochrelativistischer Elektronenpakete erzeugt. Die Elektronenpakete erzeugen durch die Wechselwirkung mit der Vakuumkammerwand elektromagnetische Felder, die auf nachfolgende Pakete zurückwirken können. Mit wachsendem Strahlstrom verstärkt sich diese Wechselwirkung, sodass der Elektronenstrahl instabil wird, d.h., dass alle Elektronenpakete anfangen um ihre Sollposition longitudinal oder transversal zu schwingen. Diese Oszillationen reduzieren zum Einen die Qualität der emittierten Synchrotronstrahlung und zum Anderen wird durch die Schwingungen der Maximalstrom begrenzt. Im Rahmen dieser Arbeit wurden die Strahlinstabilitäten am Elektronenspeicherring DELTA systematisch untersucht. Es wurde ein digitales Regelsystem installiert und in Betrieb genommen, welches in der Lage ist, die Position jedes Elektronenpakets bei jedem Umlauf zu detektieren und zu digitalisieren. Auf Grundlage des Eingangssignals kann ein Korrektursignal berechnet werden, um sowohl transversale als auch longitudinale Schwingungen jedes Paketes zu unterdrücken. Darüber hinaus ist es möglich, gezielt einzelne Pakete zu Schwingungen anzuregen. Die systematische Anregung aller Schwingungsmoden des Elektronenstrahls erlaubte es im Rahmen dieser Arbeit erstmalig, die Dämpfungszeiten aller 192 Eigenmoden des Elektronenstrahls zu bestimmen. Die Stromabhängigkeit der Dämpfungsraten wurde untersucht, und eine Instabilitätsschwelle für die longitudinale Oszillation gefunden. Neben der Untersuchung von Strahlinstabilitäten mit mehreren Elektronenpaketen wurde das Verhalten eines einzelnen Elektronenpakets im Speicherring untersucht. Die Datennahme des digitalen Regelsystems kann auf externe Ereignisse getriggert werden, was dazu verwendet wurde, den Injektionsprozess und das Auftreten von Strahlverlusten zu untersuchen. Dabei konnte gezeigt werden, dass eine transversale Dämpfung des Strahls mit Hilfe des Regelsystems eine Vergrößerung der Injektionseffizienz bewirkt. Ein weiterer Aspekt dieser Arbeit ist die Verbesserung der Signalqualität kohärenter Synchrotronstrahlung, die im Rahmen der DELTA Kurzpulsquelle erzeugt wird. Die Kurzpulsquelle basiert auf dem Coherent Harmonic Generation Prinzip (CHG), bei dem durch die Wechselwirkung von Femtosekunden-Laserpulsen mit den Elektronenpaketen kohärente Synchrotronstrahlung im VUV-Spektralbereich erzeugt wird. Es konnte gezeigt werden, dass sich im Hybrid-modus die Signalintensität durch das longitudinale Regelsystem vergrößern lässt. 122 238 252 Total synthesis and structural assignment of Curvicollide C and derivatives of Fusaequisin A (–)-Curvicollide C, a polyketide metabolite isolated from the mycoparasitic fungus Podospora curvicolla (left, Illinois 2004), shows striking structural similarity to (–)-Fusaequisin A, isolated from the endophytic fungus Fusarium equiseti (right, Cameroon 2013). As these fungi originate from different habitats and remote geographic locations, and, as they also differ in their morphological characteristics and phylogenetic classification the question arises why these fungi produce secondary metabolites of close structural relationship. In both cases the relative configuration was only partially elucidated while the absolute configuration remained unknown. The central heterocycles were determined to exhibit an all-trans configuration. This inspired us to initiate a research project aiming towards the total synthesis of both natural products, also because the unique combination of structural characteristics, imposed a synthetic challenge. Herein we report the first total synthesis of (+)-Curvicollide C and of a non-natural diastereomer of Fusaequisin A. Cross-metathesis and Julia–Kocienski olefination were chosen as the key coupling steps resulting in three retrosynthetic fragments, namely the Western, the Central, and the Eastern fragment. The synthesis was desined to rely on late-stage coupling of the configurationally and constitutionally customizable Western and Eastern fragements with the Central fragment of defined absolute configuration. The resulting highly modular synthesis provided access to a collection of five individually synthesized diastereomers of Curvicollide C, which enabled the full structural assignment of Curvicollide C by comparative NMR spectroscopic analysis. Der polyketide Metabolit (–)-Curvicollid C, welcher aus dem mycoparasitären Pilz Podospora curvicolla (links, Illinois 2004) isoliert wurde, zeigt eine auffällige strukturelle Ähnlichkeit zu (–)-Fusaequisin A. Dieser Metabolit wurde aus dem endophytischem Pilz Fusarium equiseti (rechts, Cameroon 2013) gewonnen. Da die beiden genannten Pilze aus unterschiedlichen biologischen Habitaten und geographischen Lagen stammen und sich zudem in ihren morphologischen Charakteristka und ihrer phylogenetischen Klassifikation unterscheiden stellt sich die Frage warum diese Pilze Sekundärmetabolite mit einem derart hohen strukturellen Verwandschaftsgrad bilden. Für beide Naturstoffe wurde die relative Konfiguration nur teilweise aufgeklärt und die absolute Konfiguration verblieb unbekannt. Den zentralen Heterozyklen wurde eine all-trans Konfiguration zugeordnet. Die unvollständige Strukturaufklärung forderte uns heraus ein Forschungsprojekt mit dem Ziel der Totalsynthese beider Naturstoffe anzugehen. Zudem sahen wir eine synthetische Herausforderung in der einzigartigen Kombination von strukturellen Charakterisika der beiden Naturstoffe. Im Folgenden berichten wir über die Totalsynthese von (+)-Curvicollid C sowie eines nicht natürlichen Diastereomers von Fusaequisin A. Als zentrale Verknüpfungsschritte wurden eine Kreuzmetathese und eine Olefinierung gewählt, wobei drei retrosynthetische Fragmente resultierten, welche im Folgenden als West-, Zentral- und Ost-Fragment bezeichnet werden. Die Synthese wurde aufbauend auf der Idee geplant, die Verknüpfungen der Fragmente auf einer möglichst späten Stufe durchzuführen, wobei das West- und Ost-Fragment in ihrer Konfiguration und Konstitution flexibel anpassbar sein sollten und das Zentral-Fragment in einer festgelegten absoluten Konfiguration vorliegt. Die resultierende modulare Synthese ermöglichte den Zugang zu einer Kollektion von fünf einzeln synthetisierten Diastereomeren von Curvicollid C. Durch vergleichende NMR Analyse dieser Diastereomere konnte schließlich eine zuverlässige Strukturaufklärung von Curvicollid C erzielt werden. 123 367 317 Morphology and electronic structure of gold clusters on graphite Morphologie und Elektronische Struktur von Gold-Clustern auf Graphit The morphology and the electronic structure of gold clusters on graphite have been studied using a combination of scanning tunneling microscopy (STM), scanning tunneling spectroscopy (STS), and ultraviolet photoelectron spectroscopy (UPS).The cluster samples have been prepared by controlled condensation into preformed nanometer-sized pits on the surface of highly oriented pyrolytic graphite (HOPG). Depending on the Au exposure the cluster sizes vary from some 10 atoms up to several 10000 atoms. Small Au clusters significantly below 1000 atoms do not show facets whereas large clusters consisting of more than 10000 atoms exhibit hexagonal facets on top with a (111) orientation. The local density of states has been measured on these facets by spatially resolved STS. The observed pronounced patterns in the dI/dV maps could be explained by a Shockley surface state confined to the cluster facet. The symmetry of the patterns as well as the energetic position of the quantized states are in well agreement with the results of a simple model. The pronounced features in the dI/dV curves of smaller, non-faceted clusters show systematic trends for certain size ranges.The growth process has been investigated by in situ UPS and STM measurements during the preparation of the cluster sample. A semi-quantitative model has been used for the data analysis.For the interpretation of UPS data of clusters on surfaces the so-called dynamic final state effect has to be taken into account. This effect results in a broadening and an asymmetric shift of spectral features due to a convolution with a distribution function P(W). The dependence on the photon energy has been demonstrated explicitly by a combination of UPS and X-ray photoelectron spectroscopy (XPS). Deconvolution algorithms based on the adaptive kernel maximum entropy method (AK-MEM) have been proved to be well-suited for the extraction of P(W) from the experimental data.Finally, the spatial resolution of STS is combined with the angle-resolved information of the UPS data. Due to the dynamic final state effect a correction of the angle-resolved photoelectron spectra is necessary for the direct comparison of the data. This results in a complete and consistent view of the confined surface state on the top facets of large Au clusters on graphite. Im Rahmen der vorliegenden Arbeit wurde die Morphologie und die elektronische Struktur von Gold-Clustern auf Graphit mit Hilfe einer Kombination aus Rastertunnelmikroskopie (STM), -Spektroskopie (STS) und Ultravioletter Photoelektronen-Spektroskopie (UPS) untersucht.Die Cluster-Proben wurden durch kontrolliertes Wachstum in nanometer-großen Gruben auf der Oberfläche von hochorientiertem pyrolytischen Graphit (HOPG) hergestellt. In Abhängigkeit von der Belegung variieren die Cluster-Größen von wenigen 10 bis hin zu einigen 10000 Atomen. Kleine Au-Cluster deutlich unterhalb von 1000 Atomen zeigen keine messbaren Facetten, während große Cluster mit mehr als 10000 Atomen deutliche hexagonale Facetten an den Oberseiten besitzen, die eine (111) Orientierung aufweisen. Auf diesen Facetten wurde die Zustandsdichte mittels ortsaufgelöster STS untersucht. Die in den dI/dV- Karten auftretenden energieabhängigen Muster konnten einem auf der Facettenfläche eingeschlossenen Shockley-Oberflächenzustand zugesprochenen werden. Dabei stimmen sowohl die Symmetrien der Zustandsdichte, als auch die gemessenen energetischen Positionen des quantisierten Oberflächenzustandes gut mit den Ergebnissen eines einfachen Modells überein. Die stark strukturierten dI/dV-Kurven einer großen Zahl von kleineren, unfacettierten Clustern zeigen zum Teil systematische Trends in Abhängigkeit von der Clustergröße.Der Wachstumsprozess wurde mit Hilfe von UPS- und STM-Messungen an den Clustern während der Probenpräparation untersucht und mit einem semi-quantitativen Modell gedeutet.Bei der Interpretation von UPS-Daten von Clustern auf Oberflächen spielt der so genannte dynamische Endzustandseffekt eine wichtige Rolle. Dieser führt zu einer Verbreiterung und Verschiebung der spektralen Strukturen durch die Faltung der Spektren mit einer Verteilungsfunktion P(W). Die Photonenenergie-Abhängigkeit dieses Effektes wurde explizit durch den Vergleich von UPS mit Röntgen-Photoelektronen-Spektroskopie (XPS) nachgewiesen. Hierbei ist der Einsatz von leistungsfähigen Entfaltungsalgorithmen auf der Basis der Adaptive Kernel Maximum Entropy Method (AK-MEM) hilfreich, um P(W) aus den Daten zu extrahieren.Abschließend wird die Ortsauflösung aus den STS-Daten mit der Winkelauflösung der UPS-Messungen kombiniert und so eine umfassende Beschreibung des quantisierten Oberflächenzustandes auf den Clusterfacetten erzielt. Für den direkten Vergleich der Daten ist aufgrund des dynamischen Endzustands-Effekts die Korrektur der winkelaufgelösten Daten mit Hilfe der AK-MEM notwendig. 124 644 559 Effects of surrogate feedback on the temporal coordination of sequential movements The human motor system integrates various sources of feedback to increase movement precision. This can be observed, for instance, when lifting an object with the thumb and index finger, where the tactile sensory feedback of the fingertips is being used to control the amount of grip force applied. Other modalities can be used as well (e.g., auditory feedback helps to produce more regular intervals in a tapping task). In the context of an assistance system for users with sensorimotor deficits, a general question is whether artificially generated sensory feedback can be used as surrogate sensory feedback to enhance movement precision. This thesis examined several aspects of this question by means of a tapping task. Several methods were chosen to evaluate whether the feedback was integrated. Global measures of timing precision (viz., constant and variable error), as well as measurement of the applied force at the tapping movements during the continuation phase were employed. Furthermore, a well-known model from basic psychological research, the two-level timing model for interresponse intervals by Wing and Kristofferson (1973b), was applied. The two-level timing model distinguishes a central timing structure and the motor implementation processes by partitioning the observed global interresponse interval variance into a central and a peripheral variance component. Recent studies showed that the central timing structure seems to integrate sensory feedback—despite that it was originally assumed as an open loop process. Therefore, it was assessed whether the two-level timing model is also suited to model the influence of surrogate sensory feedback on the timing of movements, and how the variance components are influenced under such circumstances. Experiment 1 showed that surrogate tactile feedback could be integrated when applied on both the finger and the hallux (big toe) with little differences. Experiment 2 extended the findings, showing that the surrogate tactile feedback could compensate for missing sensory reafferences to some extent. However, in both experiments, the estimators of the two-level timing model also showed unexpected behavior, such as an increase of the peripheral variance with target interval. In Experiment 2, it was confirmed that about a third of all trials did not met the model assumptions, which may be the cause for the unexpected behavior. To maintain comparability with a number of studies, the remaining experiments continued to apply the variance decomposition, despite the unmet assumptions. The remaining three experiments addressed questions which arose during Experiments 1 and 2. Experiment 3 investigated whether the pacing modality could increase the familiarity with the surrogate tactile feedback, if the tapping speed was also given using tactile pacing stimuli instead of audio stimuli. This was not the case. Experiment 4 introduced a systematically varied delay of the surrogate feedback signal in order to manipulate the perceived reliability. The delay manifested in the temporal measures already at the lowest level of delay. Furthermore, the force measures (e.g., amplitudes) indicated that the force regulation was most economic for mid-range values of the delay. Experiment 5 compared the influence of two different modalities (tactile vs. audio) across systematically varied delays. The effects of audio feedback were much more pronounced, on both the temporal and force measures. Furthermore, two different age groups were compared. The older adults generally performed comparable to the younger adults at the temporal measures. The force measures instead showed clear differences between both age groups in general but also regarding the integration of surrogate feedback in particular. To conclude, the effects found were generally in line with the literature. However, the problematic behavior of the estimators as well as the frequently unmet model assumptions oppose the application of the two-level timing model in this context. For evaluating the effect of surrogate sensory feedback, the global measures of timing precision performed better. Force measures also seemed promising, but require further research to increase understanding prior to application in a practical context. Bei der Steuerung von Bewegungen verwendet das motorische System verschiedene Arten von Rückmeldungen, um die Präzision zu erhöhen. Dies lässt sich z.B. bei Greif- und Hebe-Bewegungen beobachten, bei denen die taktile Rückmeldung von den Fingerspitzen dazu genutzt wird, die Griffkraft zu regulieren. Dies ist nicht auf gleiche Modalitäten beschränkt -- so können z.B. auditive Rückmeldungen dazu genutzt werden, die Variabilität bei einer Tapping-Aufgabe zu senken. Eine zentrale Fragestellung im Kontext von Assistenzsystemen für Nutzer mit sensomotorischen Defiziten ist, ob künstlich erzeugte sensorische Rückmeldungen ebenfalls dazu genutzt werden können, die Präzision von Bewegungen zu verbessern. In dieser Arbeit wurden verschiedene Aspekte dieser Fragestellung anhand einer Tapping-Aufgabe untersucht. Hierzu wurden mehrere abhängige Variablen genutzt, z.B. globale Maße wie konstanter und variabler Fehler, aber auch Messungen der aufgewandten Kraft bei den Tapping-Bewegungen. Desweiteren wurde ein bekanntes Modell aus der psychologischen Grundlagenforschung eingesetzt: Das Zwei-Ebenen-Modell (WKM) von Wing und Kristofferson (1973b). Das WKM teilt die bei rhytmischen Bewegungen gemessene Variabilität in zwei Komponenten auf: Eine zentralnervöse Zeitgeber-Struktur und die motorischen Umsetzung. Neuere Studien zeigen, dass der zentrale Zeitgeber sensorisches Feedback integriert -- im Gegensatz zu der ursprünglichen Annahme von Wing und Kristofferson, die den Zeitgeber als offenen Regelkreis annahmen. Daher wurde in dieser Arbeit überprüft, ob sich das WKM eignet, um den Einfluss von künstlichen sensorischen Rückmeldungen auf die Variabilität zu modellieren. Experiment 1 zeigte, dass künstliche taktile Rückmeldungen sowohl am Zeigefinger als auch am großen Zeh integriert werden können, mit lediglich geringen Unterschieden. Experiment 2 erweiterte die Befunde, indem gezeigt wurde, dass taktile Rückmeldungen auch bis zu einem gewissen Grad die endogenen taktilen Rückmelddungen kompensieren können, wenn diese reduziert werden. Jedoch gab es in beiden Experimenten unerwartetes Verhalten der Schätzwerte für zentrale und periphere Varianz. In Experiment 2 wurde bestätigt, dass ca. ein Drittel aller Trials nicht die Modellannahmen erfüllten, was der Grund für das unerwartete Verhalten sein könnte. Um Vergleiche mit anderen Studien zu ermöglichen, wurde das Modell dennoch in den verbleibenden Experimenten angewandt. Die verbleibenden drei Experimente befassten sich mit Fragestellungen, die während Experiment 1 und 2 auftauchten. In Experiment 3 wurde untersucht, ob sich die Vertrautheit mit den künstlichen taktilen Rückmeldungen steigern lässt, wenn die Vorgabe der Tapping-Geschwindigkeit nicht durch Töne erfolgt, sondern ebenfalls durch taktile Pulse. Dies war nicht der Fall. Experiment 4 führte eine künstliche, systematisch variierte Verzögerung der künstlichen Rückmeldungen ein. Die Verzögerung war dazu gedacht, die Verlässlichkeit der künstlichen Rückmeldungen zu manipulieren. In den Maßen für zeitliche Präzision hatte dies bereits einen Effekt ab der niedrigsten Verzögerungsstufe. Bei den Kraftmaßen war der Effekt am ausgeprägtesten für mittlere Verzögerungsstufen. Die Verzögerung wurde bei Experiment 5 beibehalten, aber zusätzlich wurde neben den künstlichen taktilen Rückmeldungen auch auditive Rückmeldungen verwendet. Dies führte zu deutlich ausgeprägteren Effekten in sowohl den Zeit- als auch den Kraftmaßen. Außerdem wurden zwei Altersgruppen miteinander verglichen. Ältere Probanden zeigten im Ganzen eine mit den jüngeren Probanden vergleichbare Leistung bei den Maßen für zeitliche Präzision. Bei den Kraftmaßen zeigten sich hingegen klare Unterschiede zwischen beiden Altersgruppen. Zusammenfassend lässt sich sagen, dass die Befunde der Experimente in dieser Arbeit zur Literatur passen. Jedoch sprechen die häufigen Verletzungen der Modellannahmen sowie das unverwartete Verhalten der Schätzwerte für zentrale und periphere Varianz gegen die Anwendung des WKM um den Einfluß von künstlichem Feedback zu modellieren. Hierzu erwiesen sich die globalen Maße als geeigneter. Die Kraftmaße erschienen ebenfalls vielversprechend, bedürfen allerdings noch weiterer Erforschung vor einer eventuellen praktischen Anwendung. 125 213 196 Ein Vorgehensmodell als Beitrag zur Integration des Kundenmanagements in das Supply Chain Management The aim of this thesis is to develop an integrated process model for the evaluation and improvement of customer relationships in supply chains. First, the current state of research in the areas of customer management and supply chain management as well as scientific theories and models that are relevant for this thesis are described. Based on these theoretical bases the requirements regarding content and methodologies of the process model are derived. Due to these requirements, the process models structure is based on three phases (design, control and development) and three aspects (processes, customer, supply chain). The nine fields that are formed by this matrix represent the steps to be passed. The aim of the first phase is to identify the shape of internal processes, customer relationships and the level of development of the own supply chain compatibility. The second phase aims to define the steering aspects of the internal processes, customer relationship and supply chain. In the third phase, strategies for improving the customer behavior and relationship have to be developed, which will lead to higher competitiveness of the entire supply chain. Following the practicability of this process model is illustrated in the context of a real application example. The thesis concludes with a summary and an outlook for identified future research needs. In der vorliegenden Arbeit wird ein ganzheitliches Vorgehensmodell für die Bewertung und Verbesserung von Kundenbeziehungen in Supply Chains entwickelt. Zunächst wird der aktuelle Forschungsstand in den Themengebieten Kundenmanagement und Supply Chain Management sowie die für das Thema wichtigen wissenschaftlichen Theorien und Modelle beschrieben. Darauf aufbauend werden inhaltliche und methodische Anforderungen an ein entsprechendes Vorgehensmodell abgeleitet. Aufgrund dieser Anforderungen wurde ein Vorgehensmodell entwickelt, welches anhand von drei Phasen (Gestaltung, Lenkung und Entwicklung) sowie drei Objekten (Prozesse, Kunde, Supply Chain) aufgebaut ist. Dadurch ergeben sich neun zu durchlaufende Schritte, die im Rahmen der vorliegenden Dissertation beschrieben sind. Das Ziel der ersten Phase ist die Identifikation der Gestalt der internen Prozesse, der Kundenbeziehungen sowie des Entwicklungsstands der eigenen Supply Chain Kompatibilität. Die zweite Phase zielt darauf ab, die Lenkungsebenen hinsichtlich der Objekte Supply Chain, Kunden, interne Prozesse zu definieren. Darauf aufbauend werden in der dritten Phase entsprechende Entwicklungsstrategien identifiziert, die zu einer höheren Wettbewerbsfähigkeit der gesamten Supply Chain führen. Im Anschluss wird die Praxistauglichkeit dieses Vorgehensmodell im Rahmen eines realen Anwendungsbeispiels verdeutlicht. Die Arbeit endet mit einer Zusammenfassung und einem Ausblick hinsichtlich des identifizierten zukünftigen Forschungsbedarfs. 126 300 273 Nonlinear optical spectroscopy of exciton-polaritons in Cu2O, ZnSe and semiconductor quantum wells The goal of this thesis is to gain information about fundamental states in semiconductor materials by nonlinear optical spectroscopy. The states of interest are the excitations of coupled electron-hole quasi-particles, so-called excitons. These are present in the energy range below the material's band gap, where they dominate the optical properties. In contrast to linear optics, states are excited by two, or more photons in nonlinear optics (second and third harmonic generation). Subsequent emission of one photon of sum energy and sum k-vector of the ingoing photons is detected. As the generation of harmonics is particularly efficient at exciton resonances, these can be identified as maxima in the spectra recorded. Exciton states are investigated in Cu2O, ZnSe, ZnSe/BeTe multiple quantum wells and in ZnO/(Zn,Mg)O multiple quantum wells. In Cu2O states of principal quantum number up to n=9 are detected and excitation mechanisms identified. Furthermore, the effect of internal strain on the 1S exciton is investigated and a method is proposed to measure the exciton lifetime by application of a magnetic field. The focus for ZnSe is set to the shift of the 1S resonance energy due to the exciton-polariton dispersion which can be probed at different k-values by second and third harmonic generation. For the quantum well samples, harmonic spectra of exciton resonances are presented for the first time. Effects of the reduced dimensionality of the wells on the excitons are considered, as well as perturbations due to magnetic fields. In contrast to previous work, where nanosecond pulses were used, in this work femtosecond pulses are mainly applied and a new measurement protocol is introduced. By these, the spectral resolution of the setup is increased by two orders of magnitude. Advantages and drawbacks of both measurement types are discussed. Das Ziel dieser Arbeit besteht darin, an Hand von nichtlinearer optischer Spektroskopie, Informationen über fundamentale Zustände in Halbleiter-Materialien zu erhalten. Bei diesen Zuständen handelt es sich um Anregungen von Elektron-Loch Quasiteilchen, den sogenannten Exzitonen. Diese treten im Energiebereich unterhalb der Bandlücke des Materials auf und dominieren dort die optischen Eigenschaften. Im Unterschied zur linearen Optik geschieht die Anregung in der nichtlinearen Optik durch zwei, oder mehr Photonen (Erzeugung der zweiten und höheren Harmonischen). Im Anschluss wird ein Photon mit der Summe der Energien und der Summe der k-Vektoren der anregenden Photonen detektiert. Da die Erzeugung der Harmonischen bei den Resonanzenergien der Exzitonen besonders effektiv ist, können diese als Maxima in den gemessenen Spektren beobachtet werden. Exzitonen werden in Cu2O und ZnSe Kristallen, sowie in ZnSe/BeTe und ZnO/(Zn,Mg)O Quantentrog-Strukturen untersucht. In Cu2O werden Zustände mit Hauptquantenzahl bis zu n=9 beobachtet und die Mechanismen der Anregung identifiziert. Außerdem wird der Effekt von internen Verspannungen auf das 1S Exziton untersucht, sowie eine Messmethode vorgestellt, die es erlaubt, die Exziton-Lebensdauer durch Anlegen eines Magnetfeldes zu messen. Der Fokus bei ZnSe liegt auf der Verschiebung der 1S Resonanzenergie durch die Exziton-Polariton Dispersion. Diese kann mit Hilfe der zweiten und dritten Harmonischen bei verschiedenen k-Werten angeregt werden. Für die Quantentrog-Proben werden erstmals nichtlineare Spektren der Exzitonresonanzen gezeigt. Effekte auf die Exzitonen durch die reduzierte Dimensionalität der Tröge werden ebenso behandelt, wie Störungen durch angelegte magnetische Felder. Im Gegensatz zu vorherigen Arbeiten, in denen mit Nanosekunden Pulsen gemessen wurde, werden in dieser Arbeit größtenteils Femtosekunden Pulse verwendet und ein neuer Messablauf eingeführt. Dadurch wird die spektrale Auflösung des Aufbaus um zwei Größenordnungen verbessert. Vor- und Nachteile beider Messarten werden diskutiert. 127 172 153 "Volunteering" and "Bürgerarbeit" in conceptions of public welfare. Some reflections upon unpaid work Occupational opportunities not yet developed are generally expected in the third sector. Catchwords such as "New Honorary Post", "Non-profit labour", "Volunteering" characterize the search for "wasted" human capital. The USA are a classic example of organized volunteering. However, within the last decade, the European Community has also optimized the cultivation of peoples commitment as a factor for regulating working and job market policies respectively. This article points out how the capacity of self-regulation of individuals and communities is combined with special economic targets e.g. to increase the profit rate of enterprises and the wealth of nations respectively. This contribution proceeds the assumption that the discussions on the rating of social appreciation for unpaid work produces a new subject of work that combines prosperity and personal satisfaction. Therefore, this analysis will focus on the development of as well as the reasons of justification for the relationship between the reduction of public welfare and the appeal to personal responsibility and concern. "Volunteering" und "Bürgerarbeit" in Gemeinwohl-Konzepten 128 198 195 Labour Policy Initiatives within the IT-Sector Ambiguity of Self-organisation at Work as Challenges and Chances of a New Kind of Network Policy for Trade Unions Arbeitspolitische Initiativen in der IT-Branche Ambivalenzen des dezentralen "Selbertuns" und Herausforderungen und Chancen einer neuen Netzwerkpolitik für die Gewerkschaften An institutional point of view is mainly to be found within the debates about restructuring of modern western societies under the previous indication of globalization and competition of sites. This article led to a surprising and exceptional in-dustrial conflict as starting-point of reflections about the innovative character of social conflicts which happened between August 2002 and February 2004 at Siemens AG, Hoffmannstraße, the greatest plant of the company. The scientific debate on #subjectivization of labour# mainly focuses on new forms of self-control and self-steering of modern knowledge-workers. On the example of this conflict it is to be shown that self-organisation at work, demanded in their everyday work, is ambiguous. It might turn out to be a discipline of freedom. At the same time the case especially of this conflict instructs about the creating of new kinds of network policy just within industrial conflicts. These new kinds of network policy turn out to be a challenge as well as a chance for trade unions as customary institutions of labour, threatened by sclerosis and decay. n der aktuellen Debatte über die Restrukturierung der modernen westlichen Gesellschaften unter den Vorzeichen von Globalisierung und Standortwettbewerb überwiegt eine Betrachtung aus institutioneller Perspektive. Der vorliegende Aufsatz nimmt in dieser Lage einen überraschenden sozialen Großkonflikt, der sich vom August 2002 bis zum Februar 2004 im Werk Hoffmannstraße der Siemens AG, dem größten Werk des Konzerns in der Bundesrepublik, ereignet hat, zum Ausgangspunkt von Überlegungen, die sozialinnovative Seite solcher Konflikte näher ins Auge zu fassen. Während die sozialwissenschaftliche Debatte zur "Subjektivierung der Arbeit" vornehmlich auf neue Formen der Selbstkontrolle und Selbststeuerung der modernen Wissensarbeiter abhebt, lässt sich hier an einem herausgehobenen Konflikt, der von solchen modernen Wissensarbeitern getragen wurde, zeigen, dass das dezentrale Selbertun, das von ihnen in ihrer alltäglichen Arbeit gefordert wird, im Spannungsfeld von fortschreitender Selbstunterwerfung unter ökonomische Zwänge oder Entfaltung von Freiheitspotenzialen ambivalent ist. Zugleich zeigt sich am Beispiel dieses Konflikts, in welcher Weise neue Formen einer Netzwerkpolitik gerade auch in arbeitspolitischen Konflikten entstehen. Sie werden zu einer Herausforderung und Chance für die Gewerkschaften als überkommene und von fortschreitender Erosion bedrohte Institutionen der Arbeit. 129 141 135 From occupational to activity society. On a current debate In most early industrialized countries the problem of high unemployment rates has been prevailing since the eighties. This has also been the case in the Federal Republic of Germany after unification. Consequently, the social-economic development model of fordism together with its vision of salaried society is under serious pressure. Nevertheless, subjective and objective functions of employment for individuals and political communities remain valid. This contribution discusses the actual strategies against unemployment taking into account the secular changes in the German "Arbeitsgesellschaft". What are the analytical assumptions behind the strategies and what are the implications in the realm of labour, social and democratic politics? Which problems have to be reflected if not only work in monetized economy is taken into account but also the entire spectrum of human activities, of men and women? Von der Arbeits- zutr Tätigkeitsgesellschaft? 130 105 116 Experimentelle und theoretische Untersuchung der Flüssigkeitsstruktur verzweigter Alkohole In this work the structure of liquid 2,2-dimethyl-3-ethyl-3-pentanol and 3-ethyl-3-pentanolis investigated. The spectroscopic properties (OH stretching vibration, 1H chemical shift)show characteristic changes with appearing hydrogen bonds. One can measure these propertiesas well as calculate them using quantum mechanical methods. Based on the laterthe use of statistical thermodynamics allows to predict the probability of specific structures.The experimental IR-bands are poorly resolved. In this work an algorithm is developedto use the temperature dependence of these bands for decomposition.In the case of 2,2-dimethyl-3-ethyl-3-pentanol monomers and dimers are found in theneat liquid. The dimers are replaced by monomers with increasing temperature. Liquid3-ethyl-3-pentanol consists of additional cyclic trimers and tetramers. In dieser Arbeit wird die Struktur der Alkohole 2,2-Dimethyl-3-ethyl-3-pentanol und3-Ethyl-3-pentanol in flüssiger Phase untersucht. Die spektroskopischen Sonden (OHStreckschwingungund 1H-chemische Verschiebung) zeigen charakteristische Änderungenmit Zustandekommen von Wasserstoffbrückenbindungen. Man erhält sie zum einen durchexperimentelle Messung, zum anderen durch quantenmechanische Berechnungen. Aus letzterenlassen sich mittels der statistischen Thermodynamik auch Aussagen über die Wahrscheinlichkeitbestimmter Strukturelemente treffen.Die experimentellen IR-Banden sind nur unzureichend aufgelöst. In der Arbeit wird einVerfahren entwickelt, die Temperaturabhängigkeit der Banden auszunutzen und so dieSpektren zerlegen zu können.Für 2,2-Dimethyl-3-ethyl-3-pentanol ergibt sich eine Zusammensetzung der reinen Flüssigkeitaus monomeren und dimeren Strukturen, wobei mit steigender Temperatur die Dimeredurch Monomere ersetzt werden. In Fall des 3-Ethyl-3-pentanol tauchen zusätzlichringförmige Trimere und ebenfalls zyklische Tetramere auf. 131 144 116 Social Research - a forward-looking model for interdisciplinarity and the orientation towards practice Sozialforschung - ein zukunftsweisendes Modell für Interdisziplinarität und Praxisorientierung Interdisciplinarity and the orientation towards practice are viewed as the key qualifications for scientific support in the Federal Republic. But "eagerly speaking about what ist to be, one forgets what is" (Th.W. Adorno) - empirical social research has managed to realize these two qualifications in a most exemplary way. It has accompanied social change in the Federal Republic with regard to the future: the democratization after the fascist dictatorchip, the modernization of public service systems (education, social security, health). Rendering society economic is making great demands on the way social research views itself as well as on its infrastructure. This reorientation challenges the balancing of the latest developments in research, which have been accomplished up to now, in order to secure them in the sense of a cumulative progress in realization. Interdisziplinarität und Praxisorientierung rechnen derzeit zu den Schlüsselqualifikationen für die Wissenschaftsförderung in der Bundesrepublik. Doch im Eifer zusagen, was sein soll, wird übersehen, was ist (Th.W. Adorno) - die Empirische Sozialforschung hat diese beiden Qualifikationen seit ihrem Neubeginn nach 1945 in einer beispielgebenden Weise verwirklicht. Sie hat den Sozialen Wandel in der Bundesrepublik vorausschauend und unterstützend begleitet: die Demokratisierung nach der NS Diktatur, die Modernisierung der öffentlichen Dienstleistungssysteme (Bildung, Soziale Sicherheit, Gesundheit). Die Ökonomisierung der Gesellschaft stellt derzeit neue Anforderungen an das Selbstverständnis und an die Infrastruktur der Sozialforschung. Die Neuorientierung fordert dazu heraus, den erreichten Forschungsstand zu bilanzieren und im Sinne eines kumulativen Erkenntnisfortschritts zu sichern. 132 154 153 A type-theoretic framework for software component synthesis A language-agnostic approach for type-based component-oriented software synthesis is developed from the fundamental principles of abstract algebra and Combinatory Logic. It relies on an enumerative type inhabitation algorithm for Finite Combinatory Logic with Intersection Types (FCL) and a universal algebraic construction to translate terms of Combinatory Logic into any given target language. New insights are gained on the combination of semantic domains of discourse with intersection types. Long standing gaps in the algorithmic understanding of the type inhabitation question of FCL are closed. A practical implementation is developed and its applications by the author and other researchers are discussed. They include, but are not limited to, vast improvements in the context of synthesis of software product line members. An interactive theorem prover, Coq, is used to formalize and check all the theoretical results. This makes them more reusable for other developments and enhances confidence in their correctness. Es wird ein sprachunabhängiger Ansatz für die typbasierte und komponentenorientierte Synthese von Software entwickelt. Hierzu werden grundlegende Erkenntnisse über abstrakte Algebra und kombinatorische Logik verwendet. Der Ansatz beruht auf dem enumerativen Typinhabitationsproblem der endlichen kombinatorischen Logik mit Intersektionstypen, sowie einer universellen algebraischen Konstruktion, um Ergebnisterme in jede beliebe Zielsprache übersetzen zu können. Es werden neue Einblicke gewonnen, wie verschiedene semantische Domänen des Diskurses über Softwareeigenschaften miteinander verbunden werden können. Offene Fragestellungen im Zusammenhand mit der Algorithmik des Typinhabitationsproblems für Intersektionstypen werden beantwortet. Eine praktische Implementierung des Ansatzes wird entwickelt und ihre bisherigen Anwendungen durch den Autor und andere Wissenschaftler werden diskutiert. Diese beinhalten starke Verbesserungen im Zusammenhang mit der Synthese von Ausprägungen von Software Produktlinien. Ein interaktiver Theorembeweiser wir genutzt, um alle Ergebnisse der Arbeit zu formalisieren und mechanisch zu überprüfen. Dies trägt zum einen zur Wiederverwendbarkeit der theoretischen Ergebnisse in anderen Kontexten bei, und erhöht zum andern das Vertrauen in ihre Korrektheit. 133 142 122 Determinants of participation in professional advancement regarding elder employees Determinanten der Weiterbildungsbeteiligung älterer Erwerbstätiger An analysis of the German report-system further training (BSW 2000) shows, that age-specific participation ratios in formal on-the-job training activities depend on the aim of the respective courses: Participation in introductory courses and in activities for professional advancement is negatively correlated with age. Participation in adaption activities, however, is not significantly related to age. Thus, older employees also invest in their human capital, but they do so selectively and under specific conditions only: Positive attitudes towards one s capability of learning as a prerequisite for participation become more important with increasing age. Moreover, the quality of technological innovations is a key determinant of whether a formal training is considered necessary. For instance, older employees transfer experience-based knowledge in order to cope with new ability requirements that are in accordance with previous job tasks. Der Beitrag zeigt mit Daten des Berichtssystems Weiterbildung 2000, dass die altersspezifische Beteiligung an formeller beruflicher Weiterbildung on-the-job je nach Anlass der Teilnahme variiert: Die Partizipation an Einarbeitungs- und vor allem Aufstiegsqualifizierungen erweist sich als negativ altersabhängig, während die Beteiligung an Anpassungsfortbildungen in keinem signifikanten Zusammenhang mit dem Alter steht. Auch ältere Erwerbstätige investieren folglich in ihr Humankapital allerdings selektiv und unter spezifischen Bedingungen: Mit steigendem Alter gewinnen positive Einstellungen gegenüber der eigenen Lernfähigkeit als Teilnahmevoraussetzungen an Bedeutung. Zudem gibt die Qualität technologischer Innovationen den Ausschlag darüber, ob eine formelle Weiterbildung überhaupt erforderlich wird. Sind neue Arbeitsaufgaben z.B. mit der vorangehenden Tätigkeit verwandt, kann die Umstellung von älteren Erwerbstätigen teilweise durch einen Transfer ihres Erfahrungswissens bewältigt werden. 134 168 134 Energiewandlung in trockenlaufenden Schraubenmotoren The present work discusses the physical processes affecting dry running rotary screw-type motors, when converting a source of thermal energy into mechanically useful work. Experimental and theoretical research tasks involved analysing the technical physical mechanisms both in isolation and interactively, and evaluating them in relation to overall rates of energy efficiency. In order to describe and quan-titatively evaluate the impact of the various mechanisms in relation to the system parameters in as generalised a manner as possible, two variants of such machines were deployed – screw-type motors models GL51.2-M and SE69 – which differ sub-stantially in various ways in their geometrical parameters and structural character-istics. The theoretical research includs an evaluation of the effect of the geomet-rical parameters on the energy efficiency of screw-type motors. The results were grouped into the figures that assumed dry air and superheated water steam as the operating media. Finally, the interaction of the geometrical parameters with the system conditions in CRC circuits are investigated for thermal outputs between 125 and 500 kW. Die Arbeit diskutiert die physikalischen Vorgänge in trockenlaufenden Schraubenmotoren, bei der Wandlung eines thermischen Energieangebots in mechanisch nutzbare Wellenarbeit. In experimentellen und theoretischen Untersuchungen werden die technisch-physikalischen Wirkmechanismen sowohl autark, als auch interagierend, analysiert und hinsichtlich ihrer Anteile an der Gesamtenergiewandlung bewertet. Um die Wirkung der unterschiedlichen Mechanismen, in Abhängigkeit von den Anlagenparametern, möglichst allgemeingültig beschreiben und quantifiziert beurteilen zu können, werden mit den Schraubenmotoren GL51.2-M und SE69 zwei Maschinenvarianten eingesetzt, die sich im Hinblick auf ihre geometrischen Para-meter und Konstruktionscharakteristika teilweise signifikant voneinander unter-scheiden. In weiterführenden theoretischen Untersuchungen, wird der Einfluss der geometrischen Maschinenparameter von Schraubenmotoren auf die Energiewand-lungsgüte für die Arbeitsfluide trockene Luft und überhitzten Wasserdampf disku-tiert. Die Interaktion der geometrischen Parameter mit den Anlagenbedingungen wird abschließend in CRC-Kreisläufen, mit thermischen Leistungen zwischen 125 und 500 kW, untersucht. 135 184 149 Enantiomerenreine Tris(hydroxymethyl)ethan-Derivate als chirale Synthesebausteine und Synthese von (20R,22E)- und (20S,22E)-3-Oxochola-1,4,22-trien-24-säuremethylester In a first project, a chiral building block, based on a tris(hydroxymethyl)ethane-derivative should be prepared. An enzyme-catalyzed transesterification, using Chirazyme-L2 and vinyl acetate led to the desymmetrized monoprotected homochiral tris(hydroxymethyl)ethane. Optimized reaction conditions gave the corresponding mono acetate in a yield of 80 % and with an enantiomeric excess up to 83 %. An enrichment of the optical purity was achieved by crystallization of a suitable cristalline derivative. The enantiomeric pure building block was obtained after two recristallizations of (R)-(-) 4-chloro-benzoic acid 2-methyl-2-(toluene-4-sulfonyloxymethyl)-3-trityloxy-propyl ester. Its absolut configuration has been determined by chemical correlation of 1-bromo-3-chloro-2-hydroxymethyl-2-methyl-pro-pane and its usability in Organic Synthesis has been demonstrated by the transformation in both enantiomeric forms of 3-methyl-5-oxo-tetrahydrofuran-3-carbaldehyde. Methyl (22E)-3-oxochola-1,4,22-trien-24-oate is a naturally occuring steroid with unknown configuration at C-20. In a second project, a mixture of the C-20 epimers has been synthesized in a four step procedure starting from (20S)-3-oxo-23,24-dinorchol-4-en-22-al. The diastereomeres were separated via fractional crystallization and caracterized by X-ray analysis. The configuration at C-20 of the naturally occuring steroid has been determined to be S. Das Ziel des ersten Projektes war die Darstellung eines enantiomer einheitlichen Synthese-bausteins auf der Basis von Tris(hydroxymethyl)ethan. Über eine enzymkatalysierte Vereste-rung mit Chirazyme-L2 und Vinylacetat als Acyldonor wurde monotrityl-geschützes homo-chirales Tris(hydroxymethyl)ethan desymmetrisiert. Durch gezielte Optimierung der Reak-tionsbedingungen erhielt man die entsprechenden Monoacetate in Ausbeuten von 80 % mit Enantiomerenüberschüssen von bis zu 83 %. Diese wurden zur weiteren optischen Anreicher-ung in geeignete kristalline Derivate überführt. Durch zweimalige Umkristallisation von (R)-(-)-3-(4-Chlorbenzoyloxy)-2-methyl-1-(p-toluolsulfonyloxy)-2-(trityloxy-methyl)-propan war ein enantiomerenreiner Baustein dargestellt. Die Bestimmung der absoluten Konfiguration dieses Synthesebausteins gelang durch chemische Korrelation mit 1-Brom-3-chlor-2-hydro-xymethyl-2-methyl-propan. Durch die Darstellung beider enantiomerer Formen von 4-Formyl-4-methyl-tetrahydrofuran-2-on wurde die Einsatzfähigkeit des Bausteins in der organischen Synthese demonstriert.(22E)-3-Oxochola-1,4,22-trien-24-säuremethylester ist ein natürlich vorkommendes Steroid mit nicht spezifizierter Konfiguration an C-20. Im Rahmen eines zweiten Projekts wurde ein Gemisch der C-20-Epimere in 4 Stufen synthetisiert und anschließend durch Kristallisation getrennt. Beide Epimere wurden durch Röntgenstrukturanalyse charakterisiert und dem Naturstoff wurde die 20S-Konfiguration zugewiesen. 136 214 157 Baryogenesis originating from lepton number violation induced by right-handed Majorana neutrinos In this thesis, different ways to use right-handed Majorana neutrinos to explain the active neutrino masses as well as the baryon number asymmetry observed in our universe are investigated. It is shown that the induced lepton number violation can assist baryon number asymmetry generating models, whose asymmetry without additional lepton number violation is completely washed out by sphaleron transitions. Extending this investigation to the scotogenic model, also the relic dark matter abundance observed in our universe can be explained. Furthermore, different mechanisms for generating a lepton number asymmetry directly via interactions involving right-handed Majorana neutrinos are investigated. It is discussed that for models in which the Yukawa couplings of the neutrino sector can be larger than in the type-I seesaw mechanism, the parameter space for thermal leptogenesis is enlarged. Moreover, it is pointed out that considering thermal mass corrections, only an induced mass degeneracy of right-chiral neutrinos enables new prospects of leptogenesis. Additionally, loop corrections for massive vector bosons interacting with each other are investigated in time-dependent perturbation theory. Studying the case of two interacting massive vector bosons in a simple example in detail, it is shown that the degree of divergence in the S-matrix is the same as expected from R_\xi gauge. In dieser Arbeit werden verschiedene Möglichkeiten untersucht, wie rechtshändige Majorananeutrios zur Erzeugung der beobachteten Baryonzahlasymmetrie beitragen können. Es wird gezeigt, dass die induzierte Leptonenzahlverletzung Baryonenzahlasymmetrie erzeugende Modelle unterstützen kann, bei denen die erzeugte Asymmetrie ohne zusätzliche Leptonenzahlverletzung durch Sphaleronenübergänge wieder ausgelöscht wird. Um zusätzlich die beobachtete Dunkle Materie Dichte zu erklären, wird diese Untersuchung auf das Scotogenic Modell erweitert. Des Weiteren werden verschiedene Mechanismen einer direkten Leptonenzahlasymmetrieerzeugung durch Interaktionen mit rechtshändigen Majorananeutrinos untersucht. Es wird diskutiert, dass sich für Modelle, bei denen größere Yukawakopplungen als im Type-I Seesaw-Mechanismus möglich sind, der Parameterbereich für thermische Leptogenese vergrößern. Außerdem wird gezeigt, dass unter Beachtung thermischer Massenkorrekturen nur eine induzierte Massendegenerierung von rechtschiralen Neutrinos neue Möglichkeiten für Leptogenese eröffnet. Unabhängig davon werden Schleifenkorrekturen von miteinander wechselwirkenden massiven Vektorbosonen in zeitabhängiger Störungstheorie betrachtet und dabei der Spezialfall von zwei wechselwirkenden massiven Vektorbosonen genauer untersucht. Für ein einfaches Beispiel wird gezeigt, dass der Divergenzgrad der S-Matrix der Erwartung aus der R_\xi-Eichung entspricht. 137 346 320 Estimating the functional form of the effect of a continuous covariate on survival time Zur Schätzung der funktionalen Form des Effekts einer stetigen Kovariable in der Überlebenszeitanalyse In the analysis of many medical studies the effect of a continuous covariate on an outcome variable is assumed to be linear. However, this assumption is not appropriate in all situations. In this thesis several methods for estimating the functional form of the effect of one continuous covariate are investigated in the framework of the Cox proportional hazards model. In particular, I consider data-independent and data-dependent methods: Using data-independent methods (e.g. restricted cubic splines, the categorisation of the continuous covariate by fix cutpoints) the general functional form is given in advance, the data are used for estimating the parameters of these functions only. With data-dependent methods (e.g. the categorisation by data-driven cutpoints, modeling the effect by fractional polynomials) the functional form is estimated from the data, too. This process of model building can lead to a drastic `overfitting' whereas a specific prespecified functional form may be not suitable to describe the true effect correctly. In order to obtain more appropriate risk functions and to correct for bias caused by model building I extend all methods by adapting a method called bootstrap aggregating (bagging) proposed by Breiman (1996). With this approach the risk function is estimated in a set of bootstrap samples using the same method as in the original data. An aggregated risk function is then obtained by averaging the functions over all bootstrap samples. All methods are illustrated by modeling the effect of the continuous covariate age with respect to recurrence free survival in patients with breast carcinoma. Considering typical risk functions a simulation study was performed in order to assess all methods. It could be shown that bagging is able to improve the estimation of risk functions, if the model selection process led to an unstabe risk function in the original data. Other topics concerning e.g. the use of different error measures for the assessment of the results or the comparison of methods for making risk functions comparable are also discussed. Breiman L (1996): Bagging predictors. Machine Learning, 26:123-140. 1 Bei der Analyse vieler medizinischer Studien geht man davon aus, dass der Effekt stetiger Kovariablen auf die Zielgröße linear ist. Diese Annahme ist aber nicht immer zutreffend. In dieser Dissertation werden verschiedene Methoden zur Schätzung der funktionalen Form des Effektes einer stetigen Kovariable im Rahmen des Cox'schen proportionalen Hazardmodells untersucht. Dabei werden datenunabhängige und datenabhängige Methoden verwendet. Datenunabhängigkeit bedeutet hier, dass die generelle funktionale Form vorgegeben ist (z.B. bei restricted cubic splines, bei der Kategorisierung der stetigen Kovariable an fest vorgegebenen Cutpoints). Aus den Daten werden lediglich die Parameter dieser Funktionen geschätzt. Bei den datenabhängigen Methoden (z.B. der Kategorisierung anhand Ergebnis-orientierter datenabhängiger Cutpoints, der Modellierung des Effektes durch fractional polynomials) wird zusätzlich die funktionale Form aus den Daten bestimmt. Dieser Prozess der Modellbildung kann zu einem gravierenden `Overfitting' führen. Anhand einer fest vorgegeben Funktion läßt sich dagegen der wahre Effekt möglicherweise nicht korrekt beschreiben. Um eine bessere Schätzung für die Risikofunktion zu erhalten und die negativen Auswirkungen der Modellbildung zu reduzieren habe ich alle Methoden erweitert, indem ich das von Breiman (1996) vorgeschlagene bootstrap aggregating (bagging) auf das vorliegende Problem übertragen habe. Bei diesem Ansatz wird die Risikofunktion in einer Menge von Bootstrap-Stichproben geschätzt, wobei jeweils die gleiche Methode angewendet wird wie in den Originaldaten. Durch Mittelung aller in den Bootstrap-Stichproben geschätzten Risikofunktionen erhält man dann einen neuen aggregierten Schätzer für die Risikofunktion. Zur Illustration aller Methoden wird der Effekt der stetigen Kovariable Alter hinsichtlich der rezidivfreien Überlebenszeit von Patientinnen mit Mammakarzinom modelliert. Beurteilt werden die Methoden anhand einer Simulationsstudie, bei der typische Risikofunktionen zugrundegelegt wurden. Es konnte gezeigt werden, dass bagging besonders dann zu einer Verbesserung der geschätzen Risikofunktion führt, wenn der Prozess der Modellbildung in den Originaldaten einen instabilen Schätzer liefert. Weitere Aspekte wie z.B. die Anwendung verschiedener Fehlermaße zur Beurteilung der Ergebnisse oder die Verwendung verschiedener Ansätze, Risikofunktionen vergleichbar zu machen, werden ebenfalls diskutiert. 138 156 116 Between light and grey area: women in leadership positions The paper is focused on the basic theoretical and research strategies that scholarly debates have developed to discuss the topic of "women in leadership positions". It is shown that a research perspective is prevailing that tales the persistingly small numbers of female leaders as an opportunity to presuppose a problematic relationship between "women" and "leadership", neglecting dimension of creation and active structuring that are also present in this relation. Partially, this is a consequence of the concept of gender-roles, underpinning a large amount of literature in this field, but the equating of gender hierarchy and organizational hierarchy is also contributing to this picture. Some recent trends in the debate upon "gender and organization" are discussed and, finally, it is argued that differences in age, branches and national conditions have to be taken into account in order to rise attention to changes that have, though slowly, come along. Zwischen Licht und Grauzone 139 185 207 Maximale Kreispackungen für verallgemeinerte Petersen Graphen und die Bestimmung der Kreispackungszahl unter Verwendung von Knotenseparatoren For a graph G = (V;E) a maximum cycle packing is a collection of pairwise edgedisjoint cycles. The maximum cardinality n(G) of such a packing is denoted as the cycle packing number of G. In general the determination of a maximum cycle packing and n(G), respectively, is NP-hard. In this thesis we first introduce the theoretical problem by some examples of cycle packings for three particular graphs. Afterwards we give three practical examples, where you can use cycle packings on special graphs for establishing a practical solution. In Chapter 3 we outline the connection between vertex cuts and maximum cylce packings. We first have a look at graphs which contain a vertex cut of cardinality two or three. Following this we regard graphs with a given vertex cut of an arbitrary cardinality. At least we consider the family P(n;k) of generalized Petersen graphs. In case k even, we outline, that there exists always an maximum cycle packing, where all cycles excepted one are shortest cycles of length eight, if n is big enough. In case k odd, we also prove this for some special cases. Für einen gegebenen Graphen G = (V;E) ist eine maximale Kreispackung eine maximale Menge paarweise kantendisjunkter Kreise in G. Die maximale Anzahl n(G) wird als Kreispackungszahl bezeichnet. Es ist bekannt, dass die Bestimmung einer maximalen Kreispackung sowie der Kreispackungszahl ein NP􀀀schweres Problem darstellen. In dieser Arbeit werden maximale Kreispackungen zunächst an Hand einiger graphentheoretischer Beispiele eingeführt. Anschließend werden drei praktische Problemstellungen vorgestellt, deren Lösungen sich durch das Auffinden einer maximalen Kreispackung oder die Bestimmung der Kreispackungszahl auf einem geeigneten Graphen herleiten lassen. Im dritten Kapitel wird der Zusammenhang zwischen Knotenseparatoren und maximalen Kreispackungen erläutert. Dazu werden zunächst Graphen betrachtet, welche einen Knotenseparator mit zwei bzw. drei Knoten enthalten. Abschließend wird der Fall eines Graphen mit einem gegebenen Knotenseparator mit einer beliebigen Anzahl von Knoten behandelt. Im letzten Kapitel wird eine spezielle Graphenfamilie, die Familie der verallgemeinerten Petersen Graphen P(n;k) vorgestellt. Es wird für den Fall k mod 2 = 0 gezeigt, dass immer eine maximale Kreispackung existiert, welche, bis auf höchstens einen Kreis, ausschließlich aus kürzesten Kreisen der Länge acht besteht, sofern n groß genug ist. Für den Fall k mod 2 = 1 wird diese Aussage ebenfalls für einige Spezialfälle bewiesen. 140 145 124 Intercultural competence - A key concept for modern workplace Schlüsselkompetenz für die moderne Arbeitswelt Intercultural competence is a key qualification which mustn t be reserved for specific professions but has major importance for everybody in times of increasing demands due to internationalisation and globalisation. First, the importance of the topic for business and professional success abroad is explained on the basis of examples. In the course of this discussion the phenomenon of cultural convergence and divergence are explained. Building on that the different connected phases of intercultural interaction are presented, showing that competent intercultural behaviour is not an easily achieved side product of intercultural experience. It is the result of a complex learning and developmental process. The last chapter focuses on central aspects for future development of intercultural competence in education and qualification, e.g. intercultural trainings, intercultural experiential knowledge, culturally bound training concepts and the biographical development of intercultural competence. Interkulturelle Handlungskompetenz ist eine überfachliche Schüsselqualifikation von weitreichender Bedeutung zur Bewältigung der mit zunehmender Internationalisierung und Globalisierung sich stellenden Anforderungen. Zunächst wird an einigen Beispielen die Bedeutung der Thematik für das Wirtschaftsleben und den erfolgreichen beruflichen Einsatz im Ausland erläutert. Auf diesen Grundlagen aufbauend werden die verschiedenen aufeinander Bezug nehmenden Phasen der Entwicklung interkulturellen Handelns präsentiert. So lässt sich nachvollziehen, dass interkulturelles Handeln nicht einfach so nebenbei aus praktischen Erfahrungen in der Interaktion mit ausländischen Partnern entstehen kann, sondern das Resultat eines komplexen Lern- und Entwicklungsprozesses darstellt. Im letzten Abschnitt werden zentrale Aspekte der zukünftigen Entwicklung interkultureller Handlungskompetenz als Thema von Ausbildung und Qualifizierung angesprochen, wie interkulturelle Trainings, interkulturelles Erfahrungswissen, Kulturspezifität trainingsdidaktischer Konzepte und die lebensbiographische Entwicklung interkultureller Handlungskompetenz. 141 304 264 Identification and biological characterization of indoline-based autophagy inhibitors Autophagy is a vital catabolic process involved in the degradation of cellular components, which plays an important role in cancer and neurodegenerative disorders. Due to their high complexity, the pathways regulating autophagy have not been fully elucidated. The development of specific autophagy modulators and the identification of their cellular targets can provide valuable insight into the regulation of this process and, ultimately, its role in disease. Herein, a potent inhibitor of starvation-induced autophagy (IC50 = 520 +- 550 nM) was identified using a phenotypic screen. In a series of secondary assays, the compound was validated as an autophagy inhibitor. The structure–activity relationship for this compound class was derived from a synthesized compound collection of structural analogs and used for the preparation of a chemical probe for affinity-based proteomics ("pull-down"). Glutamate dehydrogenase (GDH) and calpain-1 were isolated by means of affinity-based proteomics but devalidated as targets of the inhibitor in various biophysical and biochemical assays. The ATP-gated ionotropic receptor P2X4 and the Ragulator component LAMTOR5 were the most promising targets determined by thermal proteome profiling and are currently under evaluation.Targets predicted using a computational approach based on chemical similarity included 5-hydroxytryptamine (5-HT) receptors and multiple kinases—rapidly accelerated fibrosarcoma (RAF1) and related kinases, pyruvate kinase (PK), and abelson murine leukemia viral oncogene homolog 1 (ABL1). Whereas no modulating effect on the predicted kinases was observed, the autophagy inhibitor was a potent antagonist of the G-protein-coupled serotonin receptor 5-HT6 (IC50 = 1 µM). However, as known antagonists of the receptor did not inhibit autophagy, 5-HT6 was considered an off-target. Given the strong antagonistic effect seen, G-protein-coupled receptors need to be further evaluated as potential targets of the identified inhibitor. The successful target identification of this potent inhibitor could help deliver further understanding of the complex mechanisms that regulate autophagy. Autophagie ist ein lebensnotwendiger katabolischer Prozess, der am Abbau zellulärer Komponenten beteiligt ist und eine wichtige Rolle bei Krebs und neurodegenerativen Krankheiten spielt. Aufgrund der hohen Komplexität der Autophagie-regulierenden Signalwege konnten diese noch nicht vollständig entschlüsselt werden. Die Entwicklung spezifischer Autophagie-Modulatoren und die Identifizierung ihrer zellulären Zielproteine können einen wertvollen Einblick in die Regulierung von Autophagie und letztendlich ihre Rolle in Krankheiten gewähren. Im Rahmen dieser Arbeit wurde mittels phänotypischem Screening ein potenter Inhibitor von durch Aushungern induzierter Autophagie identifiziert (IC50 = 520 +- 550 nM). In einer Reihe sekundärer Assays wurde diese Verbindung als echter Autophagie-Inhibitor validiert. Die Struktur-Aktivitätsbeziehung für diese Verbindungsklasse wurde aus einer hergestellten Substanzkollektion abgeleitet, anhand derer eine chemische Sonde synthetisiert wurde. Glutamatdehydrogenase (GDH) und Calpain-1 wurden durch Affinitätschromatographie isoliert, allerdings anschließend in verschiedenen biophysikalischen und biochemischen Assays als Zielproteine des Autophagie-Inhibitors devalidiert. Mittels thermischem Proteomprofiling wurden der ATP-abhängige Ionenkanal P2X4 und die Ragulator-Komponente LAMTOR5 als vielversprechendste Zielproteine identifiziert und werden derzeit untersucht. 5-Hydroxytryptaminrezeptoren und mehrere Kinasen—rapidly accelerated fibrosarcoma (RAF1) und verwandte Kinasen, Pyruvatkinase (PK) und abelson murine leukemia viral oncogene homolog 1 (ABL1)—waren unter den Zielproteinen, die durch rechnergestützte Ansätze anhand von strukturellen Ähnlichkeiten vorausgesagt wurden. Während kein Effekt auf die PK beobachtet wurde, war der Autophagie-Inhibitor ein potenter Antagonist des G-Protein-gekoppelten Serotoninrezeptors 5-HT6 (IC50 = 1 µM). Da allerdings bekannte Antagonisten dieses Rezeptors Autophagie nicht inhibierten, wurde 5-HT6 als „Off-Target“ bezeichnet. Angesichts des beobachteten starken antagonistischen Effekts, müssen G-Protein-gekoppelte Rezeptoren genauer als mögliche Zielproteine des identifizierten Inhibitors untersucht werden. Die erfolgreiche Identifizierung des Zielproteins dieses Inhibitors könnte dazu beitragen, weitere Einsicht in die komplexen Autophagie-regulierenden Mechanismen zu ermöglichen 142 157 131 Intensions and problems with using atypical modes of employment in East German medium-sized enterprises Intentionen und Problemlagen der Nutzung atypischer Beschäftigung im ostdeutschen Mittelstand This article deals with the usage of atypical modes of employment in East German medium-sized enterprises. It is based on the results of an explorative survey. First of all, the kinds and the intensity of different forms of atypical employment used by East German SMEs are examined. The results show that atypical employment has been established. Subsequently, the main goals of the company?s management that conducts the use of atypical employment will be pointed out. These goals are predominantly of economic nature. In this regard, perceptions of how to accomplish these goals will be analysed. Furthermore, focus will be placed on the difficulties the firms face when they use atypical employment. Here, the results of the management questionnaires will be compared to statements made by a set of worker representatives. The latter emphasise on more and partly different problems than the management does. Der vorliegende Beitrag beschäftigt sich mit der Nutzung atypischer Beschäftigung im ostdeutschen Mittelstand. Basierend auf den Ergebnissen einer explorativen Fragebogenuntersuchung werden zunächst die Nutzungsformen und die Nutzungsintensität von Leiharbeit, geringfügiger Beschäftigung, Teilzeitarbeit sowie Telearbeit untersucht. Hierbei lassen die Ergebnisse den Rückschluss zu, dass sich atypische Beschäftigungsformen in ostdeutschen KMU etabliert haben. Daran anschließend werden die Zielvorstellungen der Geschäftsleitungen dargestellt, die die Nutzung atypischer Beschäftigung leiten. Diese sind vorwiegend ökonomischer Natur. Hierbei wird auch die Wahrnehmung der Zielerreichung analysiert. Weiterhin wird auf Probleme fokussiert, die mit der Nutzung atypischer Beschäftigung in den untersuchten KMU auftreten. Dabei werden Antworten von Geschäftsleitungen und Arbeitnehmervertretern verglichen und Unterschiede herausgestellt. Es zeigt sich, dass Arbeitnehmervertreter mehr und zum Teil auch andere Probleme hervorheben als die Geschäftsleitungen. 143 249 238 Entwicklung eines internetbasierten Wissensmanagementsystems für die reinigungsgerechte Konstruktion The thesis deals with knowledge management within the range of cleaning technology. That the operating factor knowledge has a very great importance in Germany is well-known. The factories sometimes make remarkable efforts for the internal organization of knowledge that is used as demarcation criterion to competitors. However, there is also pre-competitive knowledge, which the entire branch should use. In this work it was possible to create a system for this knowledge which ignites the dynamics of Web 2.0 also for the professional interbranch environment and simultaneously ensures the quality of content with a workflow management system to increase the acceptance by the users. The same system can also be applied in the intranet of enterprises, so that the employees are able to use a single tool for internal and inter-enterprise knowledge exchanges. In order to offer the technical designers beside the knowledge management tool concrete recommendations for action, the thesis also deals with a system that requires factors of influence in the context of cleaning and cleanability. In this part the Design for cleanability is the main focus. The system falls back on familiar tools that have been adapted in the field of cleaning and cleanability. A particularly large role in the system is captured by the simulation of the flow of cleaning media. It was pointed out that badly to clean areas of an assembly arise, if the flow energy by the medium is small in these ranges. Thereby a very good visualization of critical areas is possible. Die Dissertation beschäftigt sich mit Wissensmanagement im Bereich der Reinigungstechnik. Dass der Betriebsfaktor Wissen eine sehr große Bedeutung in Deutschland besitzt, ist allgemein bekannt. Für das organisationsinterne Wissen, welches als Abgrenzungskriterium zu Wettbewerbern gilt, wird zumindest in einigen Fällen ein beachtlicher Aufwand betrieben. Es existiert jedoch auch vorwettbewerbliches Wissen, welches einer gesamten Branche nutzen sollte. Im Rahmen dieser Arbeit ist es gelungen, für dieses Wissen ein System zu erstellen, welches die Dynamik des Web 2.0 auch für das berufliche branchenübergreifende Umfeld entfacht und gleichzeitig über ein Workflowmanagementsystem die Qualität der Inhalte sicher stellt, um die Akzeptanz bei den Nutzern weiter zu erhöhen. Dasselbe System kann ergänzend hierzu auch im Intranet von Unternehmen zum Einsatz kommen, so dass die Mitarbeiter ein einheitliches Werkzeug für den betriebsinternen und betriebsübergreifenden Austausch zur Verfügung haben. Um den Konstrukteuren und Konstrukteurinnen neben dem Wissensmanagementwerkzeug konkrete Handlungsempfehlungen bieten zu können, die beschreiben, wie die Optimierung der Reinigungsgerechtheit von Konstruktionen möglich ist, wurde zudem eine Systematik zur Berücksichtigung der reinigungsrelevanten Einflussfaktoren ausgearbeitet. Dabei wird auf bekannte Werkzeuge zurückgegriffen, die für die Verwendung im Bereich der Reinigungstechnik angepasst worden sind. Einen besonders großen Stellenwert in diesem Umfeld nimmt die Simulation der Strömung von Reinigungsmedien ein. Es wurde aufgezeigt, dass sich schlecht zu reinigenden Stellen eines Bauteils ergeben, falls die Strömungsenergie durch das Medium in diesen Bereichen gering ist. Hierdurch ist eine sehr gute Visualisierung von kritischen Bereichen möglich. 144 153 140 Older workers with poor occupational qualifications and their prospects on the labour market Ältere Arbeitnehmer mit geringer beruflicher Qualifikation und deren Chancen auf dem Arbeitsmarkt In February 2003, 212 HR managers of companies with at least 20 employees in the Obere Sieg region were interviewed to capture their attitude towards younger and older jobholders with poor occupational qualifications. Altogether, the two groups were assigned an almost equal qualification level, whereas among other things - the younger jobholders were attributed an above average preparedness towards all kinds of innovations, the older workers were associated with a sense of responsibility above average. These different qualifications, however, carry relatively little weight for the appraisal of jobholders; what is more important is the general assessment which might also depend on the external framework conditions. Apparently, governmental investments such as financial allowances have only marginal impact on the companies decisions regarding the employment of older workers, other measures, e.g. early retirement arrangements and special dismissal protection seem to be counterproductive. In einer schriftlichen Umfrage bei 212 Personalverantwortlichen von Betrieben mit mindestens 20 Mitarbeitern in der Region Obere Sieg wurden im Februar 2003 die Einstellungen zu jüngeren und älteren Arbeitnehmern mit geringer beruflicher Qualifikation erfasst. Insgesamt wird beiden Gruppen ein in etwa gleiches Qualifikationsniveau zugesprochen, wobei den jüngeren Arbeitnehmern u. a. eine überdurchschnittlich hohe Bereitschaft zu allen Erneuerungen zugesprochen wird, den älteren u. a. ein überdurchschnittlich hohes Verantwortungsbewusstsein. Diese unterschiedlichen Fähigkeiten haben aber nur relativ wenig Gewicht bei der Bewertung der Arbeitnehmer, wichtiger ist die generelle Einschätzung und diese dürfte auch von den äußeren Rahmenbedingungen abhängen. Dabei haben staatliche Interventionen wie finanzielle Zuschüsse bei der Einstellung von Älteren scheinbar nur einen marginalen Einfluss auf die Entscheidung von Unternehmen, andere Maßnahmen wie Vorruhestandsregelungen und besonderer Kündigungsschutz scheinen kontraproduktiv zu sein. 145 127 136 Präparation und Charakterisierung neuer Halogenopalladate mit besonderem Schwergewicht bezüglich mehrkerniger Halogenopalladatgruppen This PhD-thesis reports on the preparation and characterization of new ternary halogenopalladates and the connectivity principles of ([PdX4]2-)-building units to novel polynuclear complex anions. The compounds were mainly obtained by solvothermal syntheses and their crystal structures determined via X-ray diffraction on powders and single crystals. For the further characterization spectroscopic and thermal analytic techniques were employed. The polynuclear halogenopalladate anions obtained were [Pd2X6]2- (X = Cl, Br), [Pd3X8]2- (X = Br, I), and [(PdCl2Cl2/2)4]4-. Remarkable are the results on the systems CsI/PdI2 and RbI/PdI2. Compounds with identical formula sums - M2PdI4 I2 and M2PdI6 (M = Rb, Cs) - are utilized as models to study redox reactions in solid state. Energy disperse X-ray diffraction with synchrotron radiation proves the pressure induced reaction of Cs2PdI4 I2 to Cs2PdI6. Diese Dissertation beschäftigt sich mit der Präparation und Charakterisierung neuer ternärer Halogenopalladate und den Verknüpfungsprinzipien von ([PdX4]2-)-Baugruppen (X = Cl, Br, I) zu neuartigen mehrkernigen komplexen Anionen. Die Kristallstrukturen der größtenteils durch Solvothermalsynthese dargestellten Verbindungen wurden mittels Röntgenbeugungsuntersuchungen an Pulvern und Einkristallen ermittelt. Die weitere Charakterisierung der Halogenopalladate erfolgte mit schwingungsspektroskopischen und thermoanalytischen Methoden. Als mehrkernige Halogenopalladatgruppen wurden [Pd2X6]2- (X = Cl, Br), [Pd3X8]2- (X = Br, I), sowie [(PdCl2Cl2/2)4]4- erhalten. Besonders hervorzuheben sind die Ergebnisse in den Systemen CsI/PdI2 und RbI/PdI2. Durch Bildung von Verbindungen mit gleichen Summenformeln - M2PdI4 I2 und M2PdI6 (M = Rb, Cs) - stellen diese Modellsysteme zum Studium von Redoxreaktionen im Festkörper dar. Energiedispersive Röntgenbeugungsuntersuchungen mit Synchrotronstrahlung zeigen den Reaktion von Cs2PdI4 I2 durch Anwendung von Druck zu Cs2PdI6. 146 319 243 Search for Higgs boson production in association with a single top quark and constraints on the H+b-jets background in the H → γγ decay channel at the ATLAS experiment In this thesis, the production of a single top quark in association with a Higgs boson (tH) is studied at √s = 13 TeV in the H → γγ decay channel at the ATLAS experiment. Similar to the production of a Higgs boson in association with a top-antitop quark pair (ttH), tH production allows for a direct measurement of the Yukawa coupling, Yt, of the top quark. Due to a destructive interference in tH production, it also provides sensitivity to negative values of the coupling strength modifier κt = Yt/Yt,SM, which describes deviations from the Standard Model (SM) expectation Yt,SM. For the first time at the ATLAS experiment, dedicated tH categories are included in the measurement of top-quark-associated Higgs boson production in the H → γγ channel, using 36.1/fb of data. The measured signal strength for ttH+tH production agrees with the SM expectation and no hint for a negative sign of κt was found. An important background for hadronic ttH and tH final states in the H → γγ channel is the production of a Higgs boson in association with additional b-jets (H+b-jets). This background is associated with a large systematic uncertainty, as the accuracy of the prediction from Monte Carlo (MC) simulations is not known. A measurement of the differential cross section of the number of b-jets, Nb-jets, for inclusive Higgs boson production in the H → γγ decay channel using 79.8/fb of ATLAS data is presented. The measured cross section for Nb-jets = 1, with the dominant contribution resulting from H+b-jets production, is in agreement with the MC expectation within the uncertainties. Additionally, an approach to improve the sensitivity to H+b-jets is presented, which is based on multivariate analysis techniques to discriminate between H+b-jets and the non-resonant background. In dieser Dissertation wird die Produktion eines einzelnen Top-Quarks in Verbindung mit einem Higgs-Boson (tH) im H → γγ-Zerfallskanal bei √s = 13 TeV am ATLAS-Experiment untersucht. Neben der Produktion eines Higgs-Bosons in Verbindung mit einem Top-Quark-Paar (ttH) ermöglicht die tH-Produktion eine direkte Messung der Yukawa-Kopplung des Top-Quarks Yt. Aufgrund einer destruktiven Interferenz in der tH-Produktion ist dieser Prozess zusätzlich sensitiv auf negative Werte des Kopplungsstärken-Modifikators κt = Yt/Yt,SM, welcher Abweichungen vom erwarteten Wert im Standardmodell (SM) Yt,SM beschreibt. In der hier vorgestellten Messung der ttH+tH-Produktion im H → γγ-Kanal mit einem Datensatz von 36.1/fb wurden am ATLAS-Experiment erstmals optimierte tH-Kategorien berücksichtigt. Die gemessene Signalstärke für die ttH+tH-Produktion stimmt mit der SM-Erwartung überein und es wurde kein Hinweis auf ein negatives Vorzeichen von κt gefunden. Die Produktion eines Higgs-Bosons in Verbindung mit zusätzlichen b-jets (H+b-jets) ist ein wichtiger Untergrund für hadronische tH- und ttH-Endzustände. Dieser Untergrund ist mit einer großen systematischen Unsicherheit verbunden, da nicht bekannt ist wie zutreffend die Vorhersagen aus Monte-Carlo-Simulationen sind. Eine Messung des differentiellen Wirkungsquerschnittes (WQ) der Anzahl von b-jets, Nb-jets, für inklusive Higgs-Boson-Produktion im H → γγ-Zerfallskanal mit einem Datensatz von 79.8/fb wird präsentiert. Der dominante Beitrag für Ereignisse mit Nb-jets = 1 resultiert dabei aus der H+b-jets-Produktion. Der gemessene WQ für Nb-jets = 1 stimmt innerhalb der Unsicherheiten mit der Monte-Carlo-Vorhersage überein. Zusätzlich wird ein Ansatz zur Erhöhung der Sensitivität auf H+b-jets präsentiert, der auf einer Trennung von H+b-jets und dem nicht-resonanten Untergrund mittels multivariater Analysemethoden basiert. 147 143 141 The future importance of multimedia networks. Select results of the Delphi '98 study In February 1998 the results of the Delphi 98 study, a survey about the global developments of science and technology were published. One area is explicitly devoted to information and communication technologies and their applications, whereby the latter can also be found in other questionnaires like "Service and Consumption". Finally, over 1.800 R&D experts from industry and universities participated in the two rounds of the survey. The analysis of the survey concerning multimedia communication systems made obvious that they have a crosscutting impact on many applications of other technology fields. Furthermore their high importance for our economic and social development are supported by the results. Because of the German weaknesses in the international technological competition the need to develop provate and public strategies especially concerning international cooperation is very high. Die zukünftige Bedeutung multimedialer Kommunikationsnetze 148 430 388 Deformation behavior of elastic shells and biological cells An elastic shell on the micro-scale filled with a suitable passive or active phase is what we refer to as a microcapsule. This work covers several classes of microcapsules spanning from static elastic shells under hydrostatic loads to animal cells made from a dynamic cytoskeleton interacting with a surrounding elastic shell. Both are microcapsules, the former enclosing a passive phase and the latter enclosing an active phase. Whereas passive microcapsules are important from a technical point of view, active microcapsules are predominantly relevant in biology. Both branches erge in the experimental realization of biological systems for which specially designed elastic containers are required. Deformations of microcapsules induced by constant axisymmetric loads are well described by classical continuum theories. These allow for reverse-engineering techniques, i.e., inferring information on the elastic material properties from shape profiles. Due to chemical activity, animal cells are, however, far from equilibrium and symmetry. Thus, they require refined models that account for the physical dynamics of the cytoskeleton, whose activity originates in chemical reactions. Enduring energy consumption results in a perpetually changing filament structure, where filaments grow stochastically and exert polymerization forces onto the shell. In turn, the shell exerts elastic forces onto filaments slowing down filament growth. This complex interplay between filament dynamics and shape changes of the elastic shell exhibits collective phenomena. In the first part of this work, we employ elastic shell theory to investigate elastic shells filled with a fluid phase. We focus on rotationally symmetric shapes in three dimensions and calculate these from elastic shape equations in static force equilibrium. To determine the shell's elastic moduli from pendant capsule images we introduce an efficient open source software and demonstrate its applicability by numerous examples. As an extension, we introduce a novel shape analysis concerning elastic capsules adsorbed to planar liquid-liquid interfaces. Together, these two methods form a comprehensive framework to quantify the elastic properties of materials from experimental setups by non-contact techniques. In the second part of this work, we employ a discrete elastic shell model without symmetry requirements in two dimensions. Dynamic microtubules placed inside the shell stochastically apply deformations to the shell. Investigating this non-equilibrium model with regard to its dynamic properties, we find that microtubules synchronize when interacting via an elastic shell, as found in an animal cell. Implementing regulatory mechanisms, we rationalize experimental observations concerning cell polarization, i.e., we find persistently polarized shapes by employing mutual exclusive feedback mechanisms with membrane associated proteins, which allow for breaking the spherical symmetry as it is necessary for cells that migrate or swim. Eine elastische Schale auf der Mikroskala, die mit einer geeigneten passiven oder aktiven Phase gefüllt ist, bezeichnen wir als Mikrokapsel. Diese Arbeit behandelt mehrere Klassen von Mikrokapseln, die von statischen elastischen Schalen unter hydrostatischer Belastung bis zu tierischen Zellen, in welchen ein dynamisches Zytoskelett mit einer umgebenden elastischen Schale interagiert, reichen. Während passive Mikrokapseln (erstere) wichtig im Hinblick auf technische Anwendungen sind, haben aktive Mikrokapseln (letztere) hauptsächlich biologische Relevanz. Beide Zweige verschmelzen in der experimentellen Realisierung biologischer Systeme, für die spezielle elastische Kontainer erforderlich sind. Verformungen von Mikrokapseln, die durch konstante achsensymmetrische Belastungen induziert werden, sind durch klassische Kontinuums-Theorien gut beschrieben. Diese ermöglichen Reverse-Engineering-Techniken, das heißt Rückschlüsse auf die elastischen Materialeigenschaften aus Formprofilen zu ziehen. Aufgrund der chemischen Aktivität sind tierische Zellen jedoch weit entfernt von Gleichgewicht und Symmetrie. So erfordern sie verfeinerte Modelle, in denen die physikalische Dynamik des Zytoskeletts, dessen Aktivität in chemischen Reaktionen entsteht, berücksichtigt wird. Der permanente Energieverbrauch führt zu einer sich ständig verändernden Filamentstruktur, bei der die Filamente stochastisch wachsen und Polymerisationskräfte auf die Schale ausüben. Die Schale wiederum übt elastische Kräfte auf die Filamente aus und verlangsamt so das Filamentwachstum. Dieses komplexe Zusammenspiel von Filamentdynamik und Formänderungen der elastischen Schale bringt kollektive Phänomene hervor. Im ersten Teil dieser Arbeit untersuchen wir theoretisch elastische Schalen, die mit einer flüssigen Phase gefüllt sind. Wir konzentrieren uns auf rotationssymmetrische Formen in drei Dimensionen und berechnen diese aus elastischen Formgleichungen im statischen Kraftgleichgewicht. Um die Elastizitätsmoduln der Schale anhand von Bildern hängender Kapseln zu bestimmen, stellen wir eine leistungsfähige Open-Source-Software vor und zeigen anhand zahlreicher Beispiele ihre Anwendbarkeit. Als Erweiterung stellen wir eine neuartige Formanalyse für elastische Kapseln vor, die an planaren Flüssig-Flüssig-Grenzflächen adsorbiert sind. Zusammen bilden diese beiden Methoden einen umfassenden Rahmen zur Quantifizierung der elastischen Eigenschaften von Werkstoffen aus Versuchsaufbauten durch berührungslose Verfahren. Im zweiten Teil dieser Arbeit verwenden wir ein diskretes elastisches Schalenmodell ohne Symmetrieanforderungen in zwei Dimensionen. Dynamische Mikrotubuli im Inneren der Schale verformen diese stochastisch. Die Untersuchung dieses Nichtgleichgewichtsmodells hinsichtlich seiner dynamischen Eigenschaften zeigt, dass sich Mikrotubuli bei der Interaktion über eine elastische Hülle synchronisieren. Indem wir regulatorische Mechanismen implementieren, machen wir experimentelle Beobachtungen zur Zellpolarisation plausibel, d.h. wir finden persistent polarisierte Formen durch den Einsatz von sich gegenseitig ausschließenden Rückkopplungsmechanismen mit Membran-assoziierten Proteinen, die es erlauben die sphärische Symmetrie zu brechen, wie es für migrierende oder schwimmende Zellen notwendig ist. 149 617 522 Modeling of microstructure evolution in aluminum alloys during hot extrusion Modeling and simulation of microstructure evolution of aluminum alloys in hot forming processes give an insight into the material properties of the final product and enable us to optimize or customize the material behavior of the final product by controlling the microstructure evolutions during and after forming process. An accurate and robust simulation of microstructure and material behavior during hot large deformation processes requires consideration of several numerical and structural aspects as well as an appropriate material model. The current work deals with the numerical aspects of the simulation of hot forming processes on the one hand, and with the material and microstructure modeling of such processes on the other. The first chapter gives an overview of this work and related researches. Here the different aspects of modeling and simulation of the extrusion processes are discussed. Furthermore a summary of the recent models and efforts for modeling the microstructure evolution in hot forming processes is given in this chapter. In the second chapter of this thesis attention is focused on aluminum alloys of the 6000 series (Al-Mg-Si) and 7000 series (Al-Zn-Mg). Here, a number of aspects of the structural simulation as well as that of extrusion as a thermomechanical process are considered. These aspects include contact and adaptive mesh refinement, heat transfer inside the billet, heat transfer between the workpiece and the container, frictional dissipation, mechanical energy and surface radiation. The third chapter presents a general framework for modeling the material behavior of metals in forming processes. Moreover, to overcome the problems of simulation of large forming processes a new remeshing scheme is presented. Here the mesh refinement applied in the second chapter is replaced by the new remeshing of the deformed geometry. The application of the framework and developed simulation techniques in two forming processes is set out. In the new meshing scheme, in order to reduce the numeric costs and increase the accuracy of the results, the mesh quality is controlled during the simulation and the simulation is stopped when the quality of mesh is less than the allowed value. Simulation results for the microstructure development as a function of process conditions demonstrate the sensitivity of microstructure development to these conditions. Comparison of the simulation results for the microstructure evolution with corresponding experimental results show good qualitative agreement. Chapter four focuses on the comparison of experimental and simulation results as well as a brief description of the applied model for prediction and simulation of the evolution of microstructure, in particular the evolution of grains, during hot forming processes of aluminum alloy EN AW–6082. The model is a physically motivated phenomenological model based on internal state dependent variables. The microstructure evolution is a temperature dependent process and is simulated in a fully-coupled thermomechanical process by help of the Finite Element software Abaqus. The results are compared and verified with experimental results obtained by the EBSD measurement of a small-scale extrusion process established for scientific purposes. The simulation results are in reasonable agreement with the experimental ones. In the final chapter two models are formulated for the thermoelastic, viscoplastic behavior of aluminum alloys and applied to the case of extrusion. The first model is based on a common semi-empirical form of the (scalar) flow rule in the extrusion community and neglects all effects of the microstructure on the hardening behavior. This results in an ideal viscoplasticmodel. The second model formulates a scalar flow rule as based on the Taylor assumption. Furthermore the effect of the subgrain structure development on the inelastic free energy and the flow stress are considered. The predictions of both of these models for simple benchmark problems involving material testing and extrusion are compared. Die Modellierung und Simulation der Mikrostrukturentwicklung von Aluminiumlegierungen in Warmumformverfahren liefern einen Einblick in die Materialeigenschaften des Endproduktes und ermöglichen die Optimierung und Anpassung des Materialverhaltens dieses Endproduktes durch die Steuerung der Mikrostrukturentwicklungen während und nach dem Umformprozess. Für die präzise und stabile Simulation der Mikrostruktur und des Materialverhaltens während Warmumformungsprozessen müssen zahlreiche numerische und strukturelle Aspekte berücksichtigt, sowie ein passendes Materialmodell gewählt werden. Die vorliegende Arbeit beschäftigt sich einerseits mit den numerischen Aspekten der Simulation von Warmumformungsprozessen, andererseits mit der Material- und Mikrostrukturmodellierung solcher Prozesse. Das erste Kapitel gibt einen Überblick über diese Arbeit und ihr verwandte Forschungsgebiete. Hier werden die verschiedenen Aspekte der Modellierung und Simulation des Strangpressprozesses diskutiert. Im Übrigen umfasst dieses Kapitel eine Zusammenstellung der aktuellen Modelle zur Mikrostrukturentwicklung beim Warmumformungsprozess, ebenso wie die neuesten Bemühungen zur Modellierung dieser. Im zweiten Kapitel dieser Doktorarbeit liegt das Augenmerk auf den Aluminiumlegierungen der Serien 6000 (Al-Mg-Si) und 7000 (Al-Zn-Mg). Es wird eine Reihe von Aspekten der Struktursimulation sowie des Strangpressens als thermomechanischen Prozess berücksichtigt. Diese Gesichtspunkte beinhalten den Kontakt, die adaptive Netzverfeinerung, die Wärmeübertragung im Inneren des Walzblocks, den Wärmeaustausch zwischen dem Werkstück und dem Behälter, den Reibungsverlust, die mechanische Energie und die Oberflächenstrahlung. Im dritten Kapitel werden allgemeine Rahmenbedingungen für die Modellierung des Materialverhaltens von Metallen in Umformprozessen dargestellt. Ferner wird, um Simulationsprobleme von Umformprozessen zu überwinden, ein neues Modell zur Neuvernetzung präsentiert. Hier wird die im zweiten Kapitel dargestellte Netzverfeinerung durch die neue Vernetzung der deformierten Geometrie ersetzt. Die Anwendung der Grundstruktur und der entwickelten Simulationstechniken auf zwei Umformprozesse wird präsentiert. Um die numerischen Kosten zu reduzieren und die Ergebnisgenauigkeit zu verbessern, wird die Qualität des Netzes während der Simulation kontrolliert und die Simulation angehalten, falls die Netzqualität einen erlaubten Wert unterschreitet. Die Simulationsergebnisse für die Mikrostrukturentwicklung als Funktion der Prozessbedingungen demonstrieren die Empfindlichkeit der Mikrostrukturentwicklung gegenüber diesen Bedingungen. Ein Vergleich der Simulationsergebnisse für die Mikrostrukturentwicklung mit den jeweiligen experimentellen Werten zeigt gute qualitative Übereinstimmungen. Im vierten Kapitel liegt der Fokus auf dem Vergleich der Ergebnisse aus Experiment und Simulation. Weiterhin wird ein Modell zur Vorhersage und Simulation der Mikrostrukturentwicklung, insbesondere der Kornentwicklung der Aluminiumlegierung EN AW-6082 während Warmumformprozessen kurz beschrieben. Dieses Modell ist ein physikalisch motiviertes phänomenologisches Modell, welches auf vom inneren Zustand abhängigen Variablen basiert. Die Mikrostrukturentwicklung ist ein temperaturabhängiger Prozess und wird mit Hilfe der Finite Elemente Software Abaqus in einem vollständig gekoppelten thermomechanischen Verfahren simuliert. Die Ergebnisse werden mit experimentellen Werten, bestimmt mit Hilfe einer EBSD Messung eines kleinmaßstäbigen Strangpressungsprozesses, der sich für wissenschaftliche Zwecke etabliert hat, abgeglichen und verifiziert. Die Simulationsergebnisse weisen eine zufriedenstellende Übereinstimmung mit den Experimentalergebnissen auf. Im letzten Kapitel werden für das thermoelastische, viskoplastische Verhalten von Aluminiumlegierungen zwei Modelle formuliert und auf den Fall der Strangpressung angewendet. Das erste Modell basiert auf einer gängigen semiempirischen Form der (skalaren) Fließregel der Strangpressgemeinde und vernachlässigt alle Effekte der Mikrostruktur auf das Aushärtungsverhalten. Dies resultiert in einem idealen viskoplastischen Modell. Im zweiten Modell wird eine skalare Fließregel basierend auf der Taylorannahme formuliert, außerdem werden der Einfluss der Subkornstrukturentwicklung auf die freie inelastische Energie sowie die Fließspannung berücksichtigt. Die Vorhersagen dieser beiden Modelle für einfache Benchmarkprobleme aus der Materialprüfung und der Strangpressung werden verglichen. 150 128 111 The Dutch job alliance and its effects Das niederländische Bündnis für Arbeit und seine Wirkungen 'Jobs, jobs, and more jobs' is the political motto in the Netherlands. The background of the Dutch "employment miracle" is explained in this article. The central question answered is whether it is possible and desirable to import and implement the 'poldermodel' in Germany. It is concluded that the transferability of the poldermodel is limited. There are considerable cultural and structural differences between the two countries. The reverse of the job miracle is a strong growth of insecure jobs with undesirable social and economic consequences. Germany plays a central role in the European Union. A policy of wage moderation in Germany may result in a downward spiral because of a partial drop in possible the internal demand. A European wide recession is. 'Jobs, Jobs und abermals Jobs' ist das politische Schlagwort in den Niederlanden. In diesem Artikel werden die Hintergründe des niederländischen "Beschäftigungswunders" erläutert und die zentrale Frage beantwortet, ob es möglich und erwünscht wäre, das "Poldermodell" in Deutschland einzuführen und zu implementieren. Gefolgert wird, dass die Übertragbarkeit des Poldermodells beschränkt ist. Es gibt beträchtliche kulturelle und institutionelle Unterschiede zwischen den beiden Ländern. Die Kehrseite des Beschäftigungswunders ist ein starkes Anwachsen der ungesicherten Beschäftigungsverhältnisse mit unerwünschten sozialen und wirtschaftlichen Konsequenzen. Deutschland spielt eine zentrale Rolle in der Europäischen Union; eine Lohnermäßigungspolitik in Deutschland könnte zu einer europaweiten Rezession führen, da ein Teil der Inlandsnachfrage ausfiele. 151 304 276 Recombinant expression and functional characterization of cannabinoid producing enzymes in komagataella phaffii Cannabinoids are secondary natural products predominantly found in the oil compartments of trichomes of the plant Cannabis sativa L. Up to now more than 100 cannabinoids have been isolated, the most prominent being the psychoactive Δ9-tetrahydrocannabinol (THC) and cannabidiol (CBD). As THC-derived products are already available for medical use and CBD is currently investigated for its application in several disease treatments, the demand of cannabinoid-based products is expected to further rise in the future. A biotechnological production presents a promising alternative to meet the demand, while also offering environmentally friendly, highly controllable and reproducible, GMP compliant processes as well as the reduction of agricultural area. In this regard, the cannabinoid producing enzymes from C. sativa, Δ9-tetrahydrocannabinolic acid synthase (THCAS) and cannabidiolic acid synthase (CBDAS), were recombinantly produced in the yeast Komagataella phaffii. The expression of thcas was enhanced in K. phaffii by optimization of cultivation conditions as well as identification and co-expression of helper protein genes. Insights were gained into structure-function relationships of the THCAS and CBDAS. The influence on the enzyme activities of glycosylation sites, of amino acid residues in the berberine-bridge-domain as well as in the active site were investigated. Important amino acid residues for enzyme activity were identified yielding enzyme variants with improved catalytic and stability properties. Additionally, a first approach to establish the late cannabinoid biosynthesis pathway in yeasts is presented. Production of the soluble prenyltransferase NphB from Streptomyces sp. strain CL190, which enables the replacement of the native transmembrane prenyltransferase cannabigerolic acid synthase from C. sativa, was simultaneously produced with THCAS, thereby enabling a production of Δ9-tetrahydrocannabinolic acid from precursors olivetolic acid and geranyl diphosphate. The studies presented here contribute to increased fundamental and industrially relevant knowledge and will help promoting a biotechnological cannabinoid production in yeasts. Cannabinoide sind sekundäre Naturstoffe, die vorrangig in den Öl-Kompartimenten von Trichomen der Pflanze Cannabis sativa L. vorkommen. Bis heute wurden mehr als 100 Cannabinoide isoliert, wobei die bekanntesten von ihnen die psychoaktiven Stoffe Δ9-Tetrahydrocannabinol (THC) und Cannabidiol (CBD) sind. THC-haltige Produkte finden bereits medizinische Anwendung und CBD wird momentan für mögliche Anwendungen in der Behandlung von diversen Krankheiten untersucht, weswegen in der Zukunft mit einem Anstieg der Nachfrage von cannabinoidhaltigen Produkten gerechnet wird. Eine biotechnologische Produktion stellt eine vielversprechende Alternative dar, um diesen Bedarf zu decken. Zusätzlich bietet sie eine Aussicht auf ökologische, kontrollierbare und reproduzierbare, GMP-konforme Prozesse, ohne den Bedarf an landwirtschaftlicher Nutzfläche zu steigern. Die Cannabinoid-produzierenden Enzyme aus C. sativa, Δ9-Tetrahydrocannabinolsäure Synthase (THCAS) and Cannabidiolsäure Synthase (CBDAS), wurden recombinant in der Hefe Komagataella phaffii produziert. Die thcas Expression wurde in K. phaffii erhöht, indem Kultivierungsbedingungen optimiert und Helferproteine identifiziert und co-produziert wurden. Neue Erkenntnisse bezüglich der Struktur-Funktion-Beziehungen der THCAS und CBDAS wurden gewonnen. Die Einflüsse der Glykosylierungsstellen, von Aminosäurereste in der Berberine-Bridge-Enzyme Domäne, sowie von Aminosäureresten in der aktiven Tasche auf die Enzymaktivitäten wurden untersucht. Dabei wurden wichtige Aminosäurereste für die Enzymaktivität identifiert und Enzymvarianten mit verbesserten katalytischen und Stabilitätseigenschaften erstellt. Weiterhin wurde ein erster Versuch unternommen, die letzten beiden Schritte der Cannabinoid Biosynthese in Hefen zu integrieren. Die simultane Produktion der löslichen Prenyltransferase NphB aus Streptomyces sp. Stamm CL190, welche die native transmembrane Prenyltransferase Cannabigerolsäure Synthase aus C. sativa ersetzt, mit der THCAS wurde etabliert. Dadurch wurde die Produktion von THC aus den Vorstufen Olivetolsäure und Geranyldiphosphat ermöglicht. Die hier präsentierten Studien tragen zu einem grundlegenden und speziell industriell relevanten Verständnis bei, um eine Entwicklung zur biotechnologischen Produktion von Cannabinoiden in Hefen voranzutreiben. 152 470 470 Das Potenzial von ökonomischer Bewertung und Partizipation für die Planung grüner Infrastruktur Green and open spaces are important components of green infrastructure. They offer a range of different ecosystem services society benefits from. Due to ongoing urbanisation and densification processes many urban and peri-urban green and open spaces disappear or degrade in quantity and quality, with negative impact on their ecosystems. The decline of the ecological functions of nature and landscape also weakens their social and economic merits, which are especially important for society. Hence, society strongly depends on eco-system services provided by healthy ecosystems. As a consequence of sprawl and land consumption people are increasingly losing contact with and knowledge about nature. Although there is generally support for the development of green and open areas in society, this is an alarming trend as society`s relation to nature is essential. How-ever, especially in cities space is limited and the pressure for development is high resulting in a competition between green and grey infrastructure, which green infrastructure is rarely able to win. Thus, investment in green and open areas is low in most cities and public needs are often neglected as investments are mainly driven by economic interests. However, public needs and local stakeholders‘ knowledge are relevant factors in planning as a majority of green infrastructure components are public spaces. Society as a whole benefits from their ecosystem services. The need to demonstrate the advantages of investments in green and open spaces is therefore high. It is also important to extend the knowledge about the services of nature in society and to pay more attention to the existing local knowledge about green infrastructure. By this means, aforementioned problems could be addressed sustainably through direct engagement of local communities. This doctoral thesis focusses on the concepts of green infrastructure and ecosystem services. For the author both concepts are closely interrelated. Based on this understanding the potential of economic valuation and participation to generate ecosystem knowledge for the support of green infrastructure planning is examined with the aid of empirical studies. Their key parts were published in four journal articles by the author and the particular co-authors. The thesis outlines and discusses the main findings from case studies in Belgium, England, Germany and the Netherlands, which were conceptualised and conducted by the author between 2009 and 2015. The published results show the potential of quantitative and qualitative information about ecosystem benefits deliverable by participation and economic valuation. The work indicates that both approaches are suited to generate different types of ecosystem knowledge by directly involving users and beneficiaries of green infrastructure and its ecosystem services. These means allow increasing the awareness of both issues in planning, politics and civil society and allow green infrastructure in general to gain in importance. This thesis is a contribution to the ongoing discussion about the green infrastructure approach and the ecosystem service concept and their application in planning practice. Grün- und Freiflächen sind wesentliche Bestandteile der grünen Infrastruktur. Sie bieten Raum für unterschiedlichste Ökosysteme und stiften so über die Bereitstellung von Ökosystemleistungen Nutzen für die Gesellschaft. Durch die zunehmende Urbanisierung und Zersiedelung gehen aber urbane und peri-urbane Grün- und Freiflächen verloren oder werden in ihrer Qualität gemindert, was sich nachteilig auf ökosystemare Zusammenhänge auswirkt. Durch die Einschränkung der ökologischen Funktionen von Natur und Landschaft leiden auch die sozialen und ökonomischen Leistungen, die den Menschen zugutekommen. Die menschliche Gesellschaft ist somit in hohem Maße von den Ökosystemleistungen intakter Ökosysteme abhängig. Der Mensch verliert durch Zersiedelung und Versiegelung zunehmend den Kontakt zu und das Wissen über die Natur. Letzteres ist trotz der grundsätzlich in der Gesellschaft vorhandenen breiten Unterstützung für die Entwicklung von Komponenten der grünen Infrastruktur, wie Grün- und Freiflächen, essenziell. Besonders in Städten, in welchen ein hoher Nutzungsdruck auf das limitierte Gut ‘Fläche‘ herrscht, konkurriert grüne mit grauer Infrastruktur. Da häufig wirtschaftliche Interessen überwiegen, sind die Investitionen in Grün- und Freiflächen in den meisten Städten relativ niedrig und die Bedürfnisse der Öffentlichkeit werden wenig berücksichtigt. Diese Bedürfnisse und die Kenntnisse der lokalen Akteure sind jedoch relevante Planungsgrößen, da viele Komponenten der grünen Infrastruktur öffentliche Flächen sind, von deren Ökosystemleistungen ein Großteil der Gesellschaft profitiert. Vor diesem Hintergrund besteht Handlungsbedarf dahingehend, Vorteile von Investitionen in Grün- und Freiflächen aufzuzeigen. Gleichzeitig gilt es, das gesellschaftliche Wissen über die Leistungen der Natur zu vergrößern beziehungsweise das vorhandene lokale Wissen der Bevölkerung über grüne Infrastruktur stärker zu berücksichtigen. So könnten die genannten Probleme auf nachhaltige Weise angegangen werden und die lokale Bevölkerung als direkter Adressat partizipieren. Die vorliegende Dissertation rückt die Konzepte der Grünen Infrastruktur und der Ökosystemleistungen in den Fokus der Betrachtung. Beide werden als unmittelbar miteinander verknüpft verstanden. Auf dieser Grundlage wird das Potenzial von ökonomischer Bewertung und Partizipation zur Generierung von Ökosystemwissen für die Planung von grüner Infrastruktur untersucht. Dies geschieht mit Hilfe empirischer Studien aus vier Aufsatzpublikationen des Autors (und seiner Mitautoren). Es werden die wichtigsten Erkenntnisse aus Fallstudien, die im Zeitraum von 2009 bis 2015 in Belgien, Deutschland, Großbritannien und den Niederlanden vom Autor mitkonzipiert und begleitet wurden, dargestellt und zusammengeführt. Dabei tragen die publikationsbasierten Ergebnisse dazu bei, Möglichkeiten aufzuzeigen, wie mittels Partizipation und ökonomischer Bewertung relevante quantitative und qualitative Informationen über den Nutzen von Ökosystemen bereitgestellt werden können. Beide Ansätze eignen sich (gemeinsam) dazu, unterschiedliche Arten von Ökosystemwissen über die direkte Einbeziehung der Nutzer und Profiteure von grüner Infrastruktur und ihrer Ökosystemleistungen zu generieren. Dies erlaubt es, das Bewusstsein für grüne Infrastruktur und seine Ökosystemleistungen in Planung, Politik und Zivilgesellschaft zu schärfen und beide Konzepte damit in der Breite zu stärken. Die Arbeit versteht sich somit als Beitrag zur aktuellen Diskussion um die Anwendung der Konzepte der Grünen Infrastruktur und der Ökosystemleistungen in der Planungspraxis. 153 127 104 The demographical change and demographical ageing in the Ruhr-area: Problems, chances and perspectives Demographic developments have in particular small-scale effects. On that the municipalities and the economic actors have to adjust their actions. This insight takes the contribution to the cause, in order to represent by the example of the Ruhr Region the demographic and social structural changes which can be expected and to work the consequences out for the job market and the economy. Especially the chances and potentials of the demographic change are in the spotlight. This focus founds it empirically basis on a finished research project, which had the aim, to discover together with local economic actors new demography-sensitive business fields within the range wellness/health, information technology, financial services and first of all habitation. Demografischer Wandel und demografisches Altern im Ruhrgebiet 154 201 186 Engen dünnwandiger Rohre mittels dornlosen Drückens In this work, the spinning process is used to reduce the diameter of thin-walled tubes. This forming process is defined as incremental necking-in. In this process, workpieces are formed locally by moving a roller tool along a predefined tool path. As this forming operation is done without any mandrel, tubular parts with nearly arbitrary contours can be manufactured. The present work is focused on the identification and explanation of cause-and-effect principles of this flexible forming process. Therefore, process and part properties are analyzed by experiments and by numerical simulations. Effects on strains, forming forces, circumferential cracks, required process time and the waviness of the workpiece surface are explained by theoretical models. Effects of parameters on stress distribution, dimensional accuracy and undesired deformations, residual stresses, fiber flow, forming temperature and cold hardening are clarified using phenomenological explanations. Dimensionless parameters are used within all models to allow a universal application of the gained results. A final combination of all results allows a comprehensive overview of the effect of single process factors on a multiple number of target values. Consequently, the results can be used as a basis to design and to optimize this process. This is finally presented by three specific case studies. In dieser Arbeit wird die Durchmesserreduktion dünnwandiger Rohre mittels Drücken untersucht und als inkrementelles Engen bezeichnet. Bei diesem Umformverfahren erlauben die kinematische Gestalterzeugung und der Verzicht auf einen konturgebenden Dorn die Fertigung nahezu beliebig konturierter Rohrwerkstücke bei universell nutzbaren Umformwerkzeugen. Der Schwerpunkt der vorliegenden Arbeit liegt in der Identifikation von Ursache-Wirkungs-Prinzipien. Dazu werden Prozess- und Bauteileigenschaften experimentell und numerisch untersucht. Als Ergebnis der Analysen werden die Effekte der Werkzeug- und Prozessparameter, der Werkzeugbahn und unterschiedlicher Werkstoffe auf eine Vielzahl von Zielgrößen vorgestellt. Die Effekte auf die Zielgrößen Formänderung, Umformkraft, Versagen durch einen Umfangsriss, erforderliche Prozesszeit sowie die Welligkeit der Werkstückoberfläche werden anhand theoretischer Modelle hergeleitet. Die Zielgrößen Spannungsverteilung, Maßhaltigkeit bzw. unerwünschte Deformationen, Eigenspannungen, Faserverlauf, Umformtemperatur und die Verfestigung im Werkstück werden auf phänomenologischem Wege erklärt. Anhand einer durchgängigen Verwendung dimensionsloser Größen wird die Übertragbarkeit der Ergebnisse berücksichtigt. Die Zusammenstellung der Ergebnisse erlaubt erstmals einen umfassenden Überblick über den Einfluss einzelner Prozessgrößen auf eine Vielzahl von Zielgrößen bei diesem Umformverfahren. Die Ergebnisse bieten somit eine Grundlage zur Auslegung und Optimierung des Prozesses. Dies wird abschließend anhand von drei spezifischen Fallstudien aufgezeigt. 155 210 197 Synthesis and applications of biscyclopropenium phosphines as ancillary ligands in catalysis Synthese und Anwendung von Biscyclopropenium Phosphinen als Liganden in der Katalyse The aim of this thesis was the design of new strong π‐acceptor ligands. In our approach two cyclopropenium substituents were attached to the phosphorus atom of the phosphine in order to introduce enhanced π-acceptor character. These biscyclopropenium phosphines, unlike their polyhalogenated analogues (PF3, P(CF3)3 and PCl3), were air stable. While the variation of the third (non-cationic) substituent attached to the phosphorus of the dicationic phosphine allowed further modification of its electronic properties, the decoration of one cyclopropenium unit with longer aliphatic chains facilitated the solution of the charged species in non-polar solvents like toluene. Furthermore, the BF4- counter-ion of some of the prepared phosphines was exchanged for SbF6- in order to investigate its influence on the reactivity in catalysis later on. Subsequent coordination of these dicationic phosphines to various transition metals afforded the corresponding Au(I), Pt(II), Ir(I) and Ag(I) complexes. The reactivity of the prepared dicationic Au(I)-precatalysts was investigated in the 6-endo-dig cycolisomerization of biphenyl-alkynes with two substituents in internal positions to their corresponding phenanthrene derivatives. After successful optimization, this methodology was applied in the synthesis Calanquinone C. Finally, the substrate scope of the utilized Au(I)-precatalysts was expanded from the synthesis of phenanthrene derivatives to the preparation of naphto-furans. Das Ziel dieser Arbeit war es neue starke π-Akkzeptor Liganden herzustellen. In unserer Herangehensweise wurden zwei Cyclopropenium-Substituenten an das Phosphoratom des hergestellten Phosphins gebunden, um einen verstärkten π-Akkzeptor Charakter einzuführen. Diese synthetisierten Biscyclopropeniumphosphine waren luftstabil im Gegensatz zu ihren polyhalogenierten Analogen (PF3, P(CF3)3 und PCl3). Die Variation des dritten (nicht-kationischen) Substituenten, der an das Phosphoratom des dikationischen Phosphins gebunden ist, erlaubt die Modifikation der elektronischen Eigenschaften der jeweiligen Verbindung. Die Anbringung längerer aliphatischer Ketten an die Cyclopropeniumeinheit ermöglicht die vollständige Lösung des dikationischen Phosphins in nicht-polaren Lösungsmitteln wie Toluol. Außerdem wurde für einige der hergestellten Phosphine das BF4- Gegenion für SbF6- ausgetauscht, um später seinen Einfluss auf die Reakivität in der Katalyse zu untersuchen. Die anschließende Koordinierung dieser dikationischen Phosphine an Übergangsmetalle resultierte in der Isolation der jeweiligen Au(I)-, Pt(II)-, Ir(I)- und Ag(I)- Komplexe. Die Reaktivität der hergestellten Au(I)-präkatalysatoren wurde in der Cycloisomerisierung von Biphenyl-Alkinen mit zwei Substituenten in internen Postionen zu den jeweiligen Phenanthrenderivaten untersucht. Nach erfolgreicher Optimierung wurde diese Methodik in der Synthese von Calanchinon C angewendet. Schließlich wurde der Anwendungsbereich der verwendeten Au(I)-präkatalysatoren von der Synthese von Phenanthrenderivaten zur Herstellung von Naphto-furanen erweitert. 156 120 116 Participation orientated development of a work- and achievement-system Partizipative Entwicklung von Arbeits- und Leistungsbedingungen The report describes the process of an ergonomic consulting project in a medium-sized chemical enterprise, focusing the development on a pay- and achievement-system. Rather in the center of interest than the detailed rules of the new system are the description and evaluation of the participation process of developing a new bonus-system. These processes contain a lot of interesting details which could be used in other enterprises in a modified way. In our point of view it is very interesting to report on the bargaining-process between the intercompany actors. The work of the external consulting-team was to moderate and to inject special know-how for finding a result which was accepted from all participants. Im Rahmen dieses Beitrags wird über ein abgeschlossenes arbeitswissenschaftliches Beratungsprojekt berichtet, in dessen Mittelpunkt die Entwicklung eines Entgelt-Leistungssystems in einem mittelständischen Chemiebetrieb stand. Im Vordergrund stehen hier allerdings weniger die Details der letztlich gefundenen neuen Entgeltregelung - obwohl auch diese skizziert werden - als vielmehr die Deskription und Bewertung des Entwicklungsprozesses hin zu einer neuen Prämienregelung. Dieser Prozeß ist durch wesentliche partizipative Elemente gekennzeichnet, die auch auf andere Betriebe übertragbar sind. Berichtenswert ist insbesondere der Aushandlungsprozeß zwischen den unterschiedlichen Akteursgruppen auf betrieblicher Ebene, dessen vorläufiger Endpunkt der gefundene Entgelt-Leistungs-Kompromiß ist. Der externen Beratung kommt die Aufgabe der Moderation sowie der Unterstützung des betrieblichen Interessenausgleichs durch das Einbringen von Expertenwissen zu. 157 447 412 Instabilities and shape analyses of elastic shells This thesis presents research results on the deformation of elastic shells, especially concerning buckling and wrinkling instabilities. The theoretical description of such deformations is used to develop methods of shape analysis, which serve to infer material properties from simple experimental observations of deformed shells. When an initially spherical shell is deflated, two successive instabilities can typically be observed. In a first buckling transition, an axisymmetric dimple appears. It grows with proceeding deflation and acquires a polygonal shape in a secondary buckling transition. The onset of the first instability is well known. Here, we draw a complete picture of axisymmetric buckled shapes from the onset to a fully collapsed state, where opposite sides of the shell are in contact. Furthermore, it is shown that the stability of buckled shapes with respect to further spontaneous deflation depends decisively on whether the interior shell volume is prescribed (buckled shapes are stable), the pressure difference is fixed (shapes are unstable and collapse immediately after the onset) or the deflation is controlled by osmosis (intermediate between the former cases). For the description of axisymmetric buckled shapes, we use two approaches: firstly non-linear shell theory and secondly a simple analytic model proposed originally by Pogorelov. The secondary buckling instability has so far only been observed in simulations and experiments. Here, we provide a theoretical explanation and analyse its onset quantitatively. A compressive circumferential stress in the vicinity of the dimple edge is identified as the driving force of the secondary buckling transition. Using the stability equations for shallow shells, we derive a critical circumferential stress which leads to wrinkles along the dimple edge, similar to the Euler buckling of straight rods. Subsequently, we introduce a model for capsules that are created from liquid drops by an interfacial reaction and hang from a capillary. The interior liquid can be removed by suction through the capillary, which usually leads to wrinkling of the capsule membrane. The theoretical model is applied to completely characterise the elastic moduli of the membrane by an analysis of the capsule contour and wrinkle wavelength detected in experimental images. A test on two different capsule systems, polymerised polysiloxane capsules and bubbles coated with a layer of the protein hydrophobin, proves the concept of the proposed elastometry method. In the analysis of the hydrophobin capsule, we find an interesting non-linear elastic response which can be attributed to the molecular structure of the proteins consisting of a hard core and a softer shell. This motivates the development of a custom elasticity model based on the microscopic view of a bead-spring model including steric repulsions and can in part explain the experimental results of the hydrophobin capsule. Die vorliegende Arbeit präsentiert Forschungsergebnisse zur Deformation elastischer Schalen, insbesondere zu Instabilitäten wie Einbeulung und Faltenbildung. Die theoretische Beschreibung solcher Deformationen wird benutzt um Methoden der Formanalyse zu entwickeln, welche dazu dienen aus einfachen experimentellen Beobachtungen deformierter Schalen deren Materialeigenschaften abzuleiten. Wird das innere Volumen einer ursprünglich runden Schale reduziert, so können typischerweise zwei Instabilitäten nacheinander beobachtet werden. In einem ersten Übergang bildet sich eine achsensymmetrische Beule. Im weiteren Verlauf wächst diese an und nimmt nach einem zweiten Übergang eine polygonale Form an. Das Einsetzen der ersten Instabilität ist wohl bekannt. Wir zeichnen hier ein vollständiges Bild achsensymmetrisch eingebeulter Formen vom anfänglichen Einbeulen bis zum völlig kollabierten Zustand, in welchem sich die gegenüberliegenden Seiten der Schale berühren. Außerdem wird gezeigt, dass die Stabilität der eingebeulten Form bezüglich weiterer spontaner Volumenreduktion sehr davon abhängt, ob das Volumen der Schale vorgegeben ist (gebeulte Formen sind stabil), die Druckdifferenz fest ist (Formen sind instabil und kollabieren sofort nach der Einbeulung) oder ob die Deformation durch Osmose gesteuert wird (Verhalten liegt zwischen den vorigen Fällen). Zur Beschreibung der achsensymmetrisch eingebeulten Form werden zwei Modelle verwendet: zum einen nicht-lineare Schalentheorie, zum anderen ein einfaches analytisches Modell welches ursprünglich von Pogorelov vorgeschlagen wurde. Die zweite Instabilität wurde bisher nur in Simulationen und Experimenten beobachtet. Hier liefern wir eine theoretische Erklärung und analysieren quantitativ ihr Einsetzen. Eine kompressive Spannung in der Umgebung des Beulenrandes wird als die treibende Kraft hinter der zweiten Instabilität identifiziert. Unter Verwendung der Stabilitätsgleichungen flacher Schalen leiten wir eine kritische Spannung her bei welcher sich entlang des Beulenrandes Falten ausbilden, ähnlich zur Eulerschen Knicklast gerader Stäbe. Anschließend wird ein Modell für elastische Kapseln eingeführt, welche durch eine Grenzflächenreaktion aus einem Flüssigkeitstropfen erzeugt werden und an einer Kapillare hängen. Durch die Kapillare kann die innere Flüssigkeit abgesaugt werden, was üblicherweise zu Faltenbildung auf der Kapselmembran führt. Das theoretische Modell wird benutzt, um durch eine Analyse der Kapselkontur und der Wellenlänge der Falten die elastischen Moduln der Membran vollständig aus experimentellen Bildern zu bestimmen. Ein Test an zwei unterschiedlichen Kapselsystemen, polymerisierte Polysiloxan Kapseln sowie Bläschen die mit einer Lage des Proteins Hydrophobin ummantelt sind, belegt die prinzipielle Funktionsweise der vorgestellten Elastometrie-Methode. Bei der Analyse der Hydrophobin-Kapseln finden wir ein interessantes nicht-linear elastisches Verhalten, welches der molekularen Struktur bestehend aus einem harten Kern und einer weicheren Schale zugeschrieben werden kann. Dies motiviert die Entwicklung eines eignen Elastizitätsmodells auf Basis eines Federmodells, welches die sterischen Wechselwirkungen der Kerne mit berücksichtigt und die experimentellen Ergebnisse der Hydrophobin-Kapsel teilweise erklären kann. 158 523 459 Dynamics and interaction of magnons in the two dimensional Heisenberg antiferromagnet In this thesis the elementary excitations of the spin-1=2 Heisenberg antiferromagnet on the square lattice are studied. This fundamental model is a paradigmatic example for long range ordered quantum phases and the spontaneous breaking of a continuous symmetry in condensed matter. The elementary excitations at long wavelengths are well understood by quantized spin waves, i.e., magnons, which are the gapless Goldstone bosons of the broken SU(2) symmetry. However, recent findings reveal an anomalous energy dip at short wavelengths, which cannot be explained by the conventional spin wave theory. The nature of spin waves at short wavelengths remains unclear to this day. A central aim of this thesis is the derivation of an effective magnon description for the square lattice antiferromagnet which is quantitatively valid for all length scales. For this purpose, the method of continuous unitary transformations (CUT) is extended to its use for gapless excitations. CUT methods provide a powerful tool for the derivation of effective quasi-particle descriptions by means of flow equations. However, typical approaches are truncated in real space restricting their scope of application to gapped quantum phases. In order to circumvent these limitations a CUT approach in momentum space is developed. The scaling dimension of operator terms is established as a suitable truncation criterion for gapless quasi-particles. Moreover, a diagrammatic representation of operator terms is introduced which simplifies the derivation and interpretation of flow equations in momentum space. The developed approach is used to transform the Heisenberg Hamiltonian into an effective Hamiltonian which conserves the number of magnons. In addition, effective observables required for the theoretical description of inelastic neutron scattering are derived. The initial magnon operators before the transformation are defined by the Dyson-Maleev representation which leads to a superficially non-hermitian Hamiltonian. As a result, the transformation constitutes a continuous similarity transformation (CST). This formalism enables the formulation of spin wave interactions by means of quartic boson operators. A crucial step of the transformation is the proper renormalization of the spin wave interaction which is achieved by a selfsimilar CST for scaling dimension d = 2. The resulting effective magnon description is consistent at all length scales. In particular, the magnon dispersion exhibits an energy dip at short wavelengths which is in quantitative agreement with recent numerical and experimental data. Further analysis of the spectral properties indicates a strong attraction between spin waves giving rise to a resonance in the longitudinal two-magnon channel. This resonance can be interpreted as the amplitude or Higgs mode of the continuously broken SU(2) symmetry with finite lifetime. The origin of the anomalous dispersion is ascribed to a scattering between the Higgs resonance and single magnon states. The theoretical results are directly compared with experimental data obtained by inelastic neutron scattering and various numerical results which support this view. The quantitative agreement between the effective spin wave approach and numerous numerical and experimental findings shows that magnons are a valid description of the elementary excitations at all length scales. Therefore, this thesis provides a final settlement of the question about the nature of the elementary excitations in the square lattice quantum antiferromagnet. In dieser Arbeit werden die elementaren Anregung des antiferromagnetischen spin-1=2 Heisenbergmodells auf dem Quadratgitter untersucht. Dieses fundamentale Modell ist ein paradigmatisches Beispiel für langreichweitig geordnete Quantenphasen und das Auftreten von spontan gebrochenen kontinuierlichen Symmetrien in kondensierter Materie. Für lange Wellenlängen können seine elementaren Anregungen in Form von quantisierten Spinwellen, auch Magnonen genannt, beschrieben werden. Dabei handelt es sich um die lückenlosen Goldstonebosonen der spontan gebrochenen SU(2) Symmetrie. Aktuelle Untersuchungen deuten auf eine Energieabsenkung bei kurzen Wellenlängen hin, welche mithilfe der konventionellen Spinwellentheorie nicht erfasst werden kann. Bis heute ist die Natur kurzwelliger Magnonen nicht geklärt. Ein wesentliches Ziel dieser Arbeit ist es die Eigenschaften der Magnonen in einem physikalisch quantitativen Gesamtbild wiederzugeben. Zu diesem Zweck wird die Methode der kontinuierlichen unitären Transformationen (CUT) für die Anwendung auf lückenlose Anregungen in langreichweitig geordneten Quantenphasen erweitert. Die CUT Methode ermöglicht die Herleitung effektiver Quasiteilchenbeschreibungen mithilfe sogenannter Flussgleichungen. Typische Anwendung erfordern jedoch eine Trunkierung im Ortsraum, was ihren Anwendungsbereich auf lückenbehaftete Quantenphasen beschränkt. Um diese Einschränkungen zu umgehen wird eine CUT Methode für den Einsatz im Imulsraum entwickelt. Die Skalierungsdimension von Operatortermen kann dabei als geeignetes Trunkierungskriterium für lückenlose Quasiteilchen etabliert werden. Des Weiteren wird eine diagrammatische Representation für Operatorterme eingeführt, welche die Herleitung und Interpretation von Flussgleichungen im Impulsraum deutlich vereinfacht. Die entwickelte Methode wird dann verwendet um den Hamiltonoperator des Heisenbergmodells in einen effektiven Hamiltoperator zu überführen. In der effektiven Darstellung ist die Zahl der Magnonen eine Erhaltungsgröße. Darüberhinaus werden auch die Observablen für die Beschreibung inelastischer Neutronstreuung transformiert. Vor der Transformation werden die Magnonen im Rahmen des Dyson-Maleev Darstellung behandelt. In dieser Darstellung verliert der Hamiltonoperator seine Hermitizität und muss daher mithilfe einer kontinuierlichen Ähnlichkeitstransformation (CST) überführt werden. Dieser Formalismus ermöglicht es die Wechselwirkung zwischen Spinwellen nur mithilfe von quartischen Bosonoperatoren zu beschreiben. Ein wesentlicher Punkt ist dabei die korrekte Renormierung der Magnonwechselwirkung. Diese wird technisch mithilfe einer selbstähnlichen CST für Skalierungsdimension d = 2 umgesetzt. Das resultierende effektive Modell ergibt ein konsistentes physikalisches Gesamtbild. Insbesondere findet sich eine Energieabsenkung der Magnondispersion für kurzeWellenlängen, welche mit aktuellen numerischen und experimentellen Daten quantitativ übereinstimmt.Weitere Untersuchungen der spektralen Eigenschaften weisen auf eine deutliche Anziehung zwischen Spinwellen hin, welche sich in Form einer Resonanz im longitudinalen Kanal zweier Magnonen manifestiert. Diese Resonanz kann als Amplitudenmode bzw. Higgsmode der spontan gebrochenen SU(2) Symmetrie mit endlicher Lebensdauer gedeutet werden. Die Energieabsenkung kurzwelliger Magnonen lässt sich auf Streuprozesse zwischen einzelnen Magnonen und der Higgsresonanz zurückführen. Ein direkter Vergleich der theoretischen Ergebnisse mit den experimentallen Daten aus inelastischer Neutronstreuung bestätigt diese Interpretation. Die quantitative Übereinstimmung des effektiven Spinwellenmodells mit einer Vielzahl von numerischen und experimentallen Ergebnissen zeigt, dass die elementaren Anregungung für alle Wellenlängen tatsächlich in Form von Magnonen beschrieben werden können. Die Natur der elementaren Anregungen im Heisenbergantiferromagneten auf dem Quadratgitter ist somit abschließend geklärt. 159 187 156 Ein Beitrag zur Auslegung von Ultraschallwandlern für Abstandsmessungen The frequency and radiation behaviour of ultrasonic transducers affects the employment and the control of the systems for the distance measurement. Reliable statements about their behaviour are made possible by a comprehensive, close-to-reality and verified simulation of the ultrasonic transducers. A substantial component of the simulation is the application of the finite element method, which is supported by further computation methods. The modularly designed simulation calculation consists of the following phases: spectrogram, displacement field, sound field computation. The sound pressure distribution in the far field and their pressure maxima as a function of the frequency are calculated by means of the approximation solution after the Huygen Fresnel integral. The verification of the partial results is made possible by the experimental investigations of sound level measurement, laser interferometry and sound field measurement. The database is supplemented by characteristic values already published as well as by experiments with self-manufactured ultrasonic transducers. The first comparisons of the results of simulation and experiment are promising. In the continuation of this work a user-specific, short-term and low-priced transducer production might be conceivable even without extensive experimental investigations thanks to reliable simulation results. Das Frequenz- und Abstrahlverhalten von Ultraschallwandlern beeinflusst den Einsatz und die Ansteuerung der Systeme für die Abstandsmessung. Verlässliche Aussagen über ihr Verhalten werden durch eine umfassende, realitätsnahe und verifizierte Simulation der Ultraschallwandler ermöglicht. Wesentlicher Bestandteil der Simulation ist die Anwendung der Finite-Elemente-Methode, die durch weitere Berechnungsverfahren unterstützt wird. Die modular aufgebaute Simulationsrech-nung besteht aus den Phasen Spektrogramm-, Verschiebungsprofil- und Schallfeldberechnung. Die Schalldruckverteilung im Fernfeld und deren Druckmaxima in Abhängigkeit von der Frequenz werden mithilfe der Näherungslösung nach dem Huygen-Fresnelschen-Integral berechnet. Die Verifikation der Teilergebnisse wird durch die experimentellen Untersuchungen Schallpegelmessung, Laserinterferometrie und Schallfeldmessung möglich. Die Da-tenbasis wird durch bereits publizierte Kennwerte sowie durch Experimente mit selbst gefertigten Ultraschallwandlern ergänzt. Die ersten Vergleiche der Ergebnisse aus Simulation und Experiment weisen in eine erfolgversprechende Richtung. In der Weiterführung dieser Arbeit wäre eine anwendungsspezifische, kurzfristige und preisgünstige Wandlerherstellung denkbar, bei der Dank zuverlässiger Simula-tionsergebnisse auf umfangreiche experimentelle Untersuchungen verzichtet werden könnte. 160 201 155 Work process knowledge in the chemical laboratory Arbeitsprozeßwissen im chemischen Labor 161 151 131 The vision of the virtual company - Examples The "vision" of the virtual company, which advertises for the spatial, temporal and social boundlessness of the service preparation in (global) computer networks, develops itself into a further innovation paradigm for organizations. The paper illustrates with three examples the effects of the new paradigm on new and on established corporations. The conversion of this vision into company practice occurs clearly more cautiously as expected. The conventional structures of the company service preparation do not remove themselves, as far as we can see. It is to be presumed that the discourse around the future model of "virtual company" adheres a line of blind spots, which hinder a more successful multimedia strategy of the companies. Above all a desocialized term of communication in the model, which reduces communication to data exchange, leads to misjudging systematically the functions of spatial, temporal and social integration in companies. Wie das Leitbild des 'virtuellen Unternehmens' wirkt 162 699 663 Engineering novel TALE repeats for the selective and direct detection of epigenetic cytosine modifications Genetic information within a cell is stored in the nucleotide sequence of deoxyribonucleic acid (DNA). In a multicellular organism, all somatic cells contain the same genetic material i.e. have the same genotype. Nevertheless, they can differ greatly in their morphologies and functions, which is commonly attributed to a differentiated pattern of gene expression. Responsible for the formation of a cell´s specific phenotype are epigenetic modifications, which act as an additional layer of information that modulates chromatin structure and genome function within a cell. Being superimposed on the nucleotide sequence of DNA, epigenetic modifications consist of chemical modifications to DNA nucleobases and histone proteins which structure the chromatin. One of the first discovered epigenetic DNA modifications in mammals is 5-methylcytosine (5mC)[3], which has been linked to transcriptional repression and hence has been shown to influence a multitude of cellular and developmental processes such as genome stability, X-chromosome inactivation or imprinting[4]. Furthermore, aberrant methylation patterns have been linked to the development of numerous diseases including mental illnesses and cancer[4-5]. With the discovery of the oxidized variants of 5mC namely 5-hydroxymethylcytosine (5hmC)[6], 5-formylcytosine (5fC)[7], and 5-carboxylcytosine (5caC)[7a, 8] as additional cytosine modifications, the question of their epigenetic relevance has emerged and has since been investigated. In order to get a better understanding of their individual functions, programmable detection methods with high selectivity for the individual cytosine variants, preferentially with applicability in living organisms, are needed. In the present study, modified transcription activator-like effector (TALE) proteins were used as DNAbinding scaffolds to investigate the individual cytosine modifications in a sequence-specific, direct, and selective manner. TALE proteins consist of an array of structurally highly conserved repeat units of which each makes specific contact to one of the DNA nucleotides. This one-to-one contact between the TALE repeat and the nucleobase is enabled by the hypervariable di-residue (repeat variable di-residue, RVD) positioned at amino acid residues 12 and 13 within each TALE repeat. Recognition thereby follows the so-called TALE code according to which RVD amino acids HD (His12, Asp13), NG (Asn12, Gly13), NN (Asn12, Asn13) and NI (Asn12, Ile13) specifically recognize nucleobases C, T, G and A, respectively[9]. The programmable sequence-specificity in combination with their sensitivity towards the epigenetic nucleobase 5mC and 5hmC[10] provided the idea for engineering size-reduced TALE repeats with novel selectivity for the chemically and structurally distinct oxidized 5mC derivatives. In a first project, saturation mutagenesis of RVD position 12 in combination with deletions of position 13 or deletion of position 13 and 14 provided two TALE libraries with size-reduced repeats that were screened for their binding ability towards C and the four modified cytosine variants. This resulted in a total of 200 new XI repeat-DNA interactions and the discovery of repeat P* (Pro12, * = deletion at pos. 13) as the first programmable sensor of 5caC[2]. On the basis of these results, the study was extended to a more thorough investigation of a truncated TALE repeat scaffold with maximal flexibility for new repeatnucleobase interaction modes. In a second project, six different mutant repeat libraries containing one to four deletions in the RVD loop region (repeat positions 12 to 15) combined with substitutions of repeat positions 11 or 12 were generated and libraries were screened for their selective binding to C, 5mC, 5hmC, 5fC and 5caC. The development of a Förster resonance energy transfer (FRET)-based DNase I competition assay allowed screening of TALE mutant libraries in a 384-well plate format and yielded a total number of 330 new repeat-nucleobase interactions. Intriguingly, this study revealed repeat R**** (Arg11, **** = deletions at positions 12 to 15) as the first size-reduced TALE repeat, which selectively and directly binds an oxidized 5mC variant. The structure and selectivity of repeat R**** was studied in more detail using molecular dynamic (MD) simulations and homology models. Our results showed a completely new binding mode towards 5caC, where Arg11 has a dual function in stabilizing the repeat structure and selectively recognizing 5caC. The results obtained from these studies denote a considerable step towards a better understanding of how repeat-nucleobase interactions can be modulated or manipulated and reveal the surprising engineering potential and adaptability of TALE repeats. Die genetische Information einer Zelle ist in der Nukleotidsequenz der Desoxyribonukleinsäure (DNS, engl.: DNA) gespeichert. In einem mehrzelligen Organismus besitzen alle somatischen Zellen das gleiche genetische Material, d. h. sie haben den gleichen Genotyp. Nichtsdestotrotz unterscheiden sie sich grundlegend in ihrer Morphologie und ihren Funktionen, was auf ein differenziertes Genexpressionsmuster innerhalb jeder Zelle zurückzuführen ist. Verantwortlich für die Ausbildung des Phänotyps einer individuellen Zelle sind epigenetische Modifikationen, die in Überlagerung mit der DNA-Nukleotidsequenz eine zusätzliche Informationsschicht darstellen und die Chromatinstruktur sowie die Funktionen des Genoms maßgeblich beeinflussen. Epigenetische Modifikationen bestehen aus zwei Arten chemischer Modifikationen, denen der DNA und denen von Histonproteine. Eine der am besten untersuchten epigenetischen DNA-Modifikationen in Säugetieren ist 5-Methylcytosin (5mC)[3], welches durch Methylierung von Cytosin an der Position C5 innerhalb des Desoxyribosemoleküls entsteht. Diese DNA-Modifikation steht in Verbindung mit transkriptioneller Repression und beeinflusst dadurch eine große Anzahl zellulärer und entwicklungsphysiologischer Prozesse wie z.B. die Stabilität des Genoms, die X-Chromosom-Inaktivierung oder Imprinting[4]. Darüber hinaus konnten anormale Methylierungsmuster mit der Entstehung verschiedener Krankheiten, darunter psychische Krankheiten und Krebs, in Verbindung gebracht werden[4-5]. Mit der Entdeckung der oxidierten Formen von 5-Methylcytosin, darunter 5-Hydroxymethylcytosin (5hmC)[6], 5-Formylcytosin (5fC)[7] und 5-Carboxylcytosin (5caC)[7a, 8], als weitere Cytosin-Modifikationen, entstand die Frage nach deren epigenetischer Bedeutung. Um die biologischen Funktionen der einzelnen Cytosin-Modifikationen besser zu erforschen und zu verstehen, werden programmierbare, selektive Detektionsmethoden benötigt, die sich zur Anwendung im lebenden Organismus eignen. In der hier vorliegenden Arbeit wurden modifizierte Transkriptionsaktivator-artige Effektor (TALE) - Proteine auf ihre Verwendung zur sequenz-spezifischen, direkten und selektiven Detektion der einzelnen modifizierten Cytosinbasen in DNA untersucht. TALE Proteine bestehen aus einer Abfolge von strukturell hochkonservierten Wiederholungseinheiten, die jeweils eine einzelne DNA-Nukleobase erkennen. Die spezifischen Eins-zu-eins-Erkennung zwischen der Wiederholungseinheit des TALEs und der DNANukleobase geschieht durch zwei hypervariable Aminosäure an Position 12 und 13, dem sogenannten repeat variable di-residue (RVD), innerhalb einer TALE Wiederholungseinheit. Die Erkennung folgt dabei dem sogenannten TALE code, wonach RVD Aminosäuren HD (His12, Asp13), NG (Asn12, Gly13), NN (Asn12, Asn13) und NI (Asn12, Ile13) jeweils spezifisch die DNA-Nukleobasen C, T, G und A erkennen[9]. XIII Die programmierbare Sequenzspezifizität von TALE-Proteinen in Kombination mit deren bereits bekannten Sensitivität gegenüber den epigenetischen Cytosin-Modifikationen 5mC und 5hmC[10], lieferte die Idee zur Entwicklung artifizieller, verkleinerter TALE-Wiederholungseinheiten mit neuen Selektivitäten für die chemisch und strukturell anspruchsvolleren oxidierten 5-Methylcytosin-Varianten. In einem ersten Teilprojekt wurden über Kombination von Sättigungsmutagenese der Wiederholungseinheit-Position 12 und einer Deletion der nebenliegenden Position 13 sowie der Positionen 13 und 14 zwei TALE-Wiederholungseinheit-Bibliotheken erstellt (Bibliotheken X* und X** mit X = eine der 20 kanonischen Aminosäuren an Position 12 und * = Deletion der Position 13, sowie ** = Deletion von Positionen 13 und 14). Die verkleinerten Wiederholungseinheiten wurden im Folgenden auf ihre Bindungsselektivität gegenüber den fünf verschiedenen Cytosin-Nukleobasen getestet. Dies resultierte in der Untersuchung von 200 unbekannten TALE-Nukleobase-Interaktionen und führte zur Entdeckung von TALE-Wiederholungseinheit P* (Pro12, * = Deletion von Position 13) als ersten programmierbaren Sensor für 5caC[2]. Basierend auf diesen Ergebnissen wurde die Untersuchung auf noch stärker verkleinerte TALEWiederholungseinheit- Strukturen ausgeweitet, was eine maximale Flexibilität zur Entstehung von neuen TALE-Nukleobasen-Interaktionen ermöglichen sollte. Daher wurden in einem zweiten Teilprojekt sechs weitere TALE-Wiederholungseinheit-Bibliotheken hergestellt, die eine bis vier Deletionen (Positionen 12 bis 15 innerhalb der TALE-Wiederholungseinheit) und Substitutionen von Wiederholungseinheit-Positionen 11 und 12 aufwiesen. Die resultierenden TALE-Wiederholungseinheiten wurden ebenfalls auf ihre Bindungsselektivität gegenüber C, 5mC, 5hmC, 5fC und 5caC getestet. Ein neu entwickelter Förster-Resonanzenergietransfer (FRET)-basierter DNase I-Kompetitionsassay ermöglichte eine Hochdurchsatzuntersuchung der TALE-Wiederholungseinheiten in 384 parallelen Ansätzen (384-well plate format). Dadurch konnten 330 unbekannten TALE-Nukleobasen-Interaktionen untersucht werden. Dies führte zur Entdeckung von Wiederholungseinheit R**** (Arg11, **** = Deletion von Positionen 12 bis 15) als erste, verkleinerte TALE-Wiederholungseinheit mit selektiver, programmierbarer und direkter Erkennung einer oxidierten 5mC-Variante. Genauere Untersuchungen der Struktur der Wiederholungseinheit sowie der Selektivität von R**** über Moleküldynamik (MD)-Simulationen und die Erstellung von Homologiemodellen, zeigten einen komplett neuen Bindungsmechanismus bei der direkten Erkennung von 5caC. Die Ergebnisse aus der vorliegenden Arbeit stellen somit einen wesentlichen Beitrag zum besseren Verständnis der Manipulation von TALE-Nukleobasen-Interaktionen dar und konnten darüber hinaus die erstaunliche Adaptierbarkeit von TALE-Wiederholungseinheiten aufzeigen. 163 581 502 The World Health Organization has been listing cardiovascular disease and its sequelae as one of the leading causes of death worldwide for several years in its annual report. In general this includes all disease that originates from the vascular system and / or from the heart. Due to the high patient rate, there is great interest in researching the exact processes and effects of the diseases on the tissue as well as on the flow behavior. These can be used to develop therapeutic options, but also to expand existing basic research. Microscopic magnetic resonance imaging has been shown to be a suitable tool to analyze flow behavior within 3D printed vessel models of different shapes and is therefore also used as a methodology in this work. Prepared tissue samples were successfully acquired with high resolution, allowing calcifications, potentially in vivo, to be visualized and compared with other samples. In addition, a program could be created, which allows the calculation of the inner free area in the tissue. This could be used to visualize possible changes in the tissue structure over a certain period of time, but also as a snapshot at the time of measurement. To analyze the flow behavior, Newtonian and non-Newtonian fluids are used. The initial measurements were performed with water as Newtonian fluid. Afterwards we were looking for a blood substitute solution which behavior is as close as possible to the behavior of blood. For this purpose, various xanthan mixtures with a xanthan amount between 75 mg and 1200 mg per liter of water were prepared and examined by rheometer, as well as by the time-of-flight method of MRI on its properties as a potency fluid. It could be shown that in the relevant shear range of our measurements (50-60 1 / s) the xanthan mixture is a good substitute for blood. The measurements with the phase contrast sequence were mainly performed on two types of vascular models. They were performed on an aneurysm model, as well as various stenosis models. The measurements allow the acquisition of the three-dimensional velocity profile of the different model geometries and thus a detailed representation of the spatial evolution of the shift of the velocity field after a change in the model. Subsequently, the deviation of the flow profile between the theoretical power law and the measured data were determined in order to get the distance in which the flow behaviour has returned to its normal state. Furthermore, a potential guideline may be established on how much further after the disturbance of the flow behavior the simulations should be performed depending on the specific alteration. This distance determination was carried out for three different categories. On the one hand the dependence of different stenosis degrees was examined. In addition, the flow rate was varied and on the other hand the concentration dependence was considered. An exponential or rather quadratic relationship could be determined empirically. Finally, the stenosis models and the aneurysm model were examined for their wall shear stress. This is an important criterion to better understand the changes in the vessel wall, such as aneurysms, as well as to estimate a potential rupture risk for the areas with differing wall shear stress. It could be shown that in general there are strongly increased values at the stenosis constrictions and also at the opposite wall. These sites are potentially highly vulnerable spots in the tissue that have an increased risk of breakthrough. Furthermore, these sites are susceptible to the formation of aneurysms. Hochauflösende Strömungsbildgebung und Gewebeanalyse mit der bildgebenden Kernspinresonanz 164 236 198 In-situ analysis of the influence of gases and ions on biological interfaces In this work the adsorption behaviour of different substances from the gas or liquid phase at model membranes was investigated. Lipid membranes play an essential role in living organisms. In the form of bilayers they organise the boundary of the cell and of the intracellular compartments. In the lung, a complex lipid-protein monolayer, the so-called pulmonary surfactant, regulates the proper gas exchange. Nowadays, the human lung is exposed to various potentially harmful molecules, e.g. solvents and volatile substances used in paints, varnishes, plasticiser, detergents and anaesthetics. On the other hand, substances such as perfluorocarbons have promising properties that could support injured lung surfactant. For a deeper understanding of these interactions, the influence of alkanes and perfluorinated substances on model membranes and their effect on pathophysiological protein adsorption processes was investigated. The natural environment of a cellular membrane is an electrolyte solution. Ions play an important role in membrane-associated processes, such as signal transduction, fusion, endocytosis and affect protein/membrane-interactions. Therefore, another point of emphasis of this work is the investigation of the influence of cations on membrane structures and protein adsorption processes. With the surface-sensitive x-ray scattering techniques x-ray reflectivity and grazing-incidence x-ray diffraction it is possible to analyse structures at interfaces with sub-angstrom resolution in-situ. As model systems Langmuir films at the liquid/gas-interface and substrate-bound lipid layers at the solid/liquid- and solid/gas-interface were investigated. In dieser Arbeit wurde das Adsorptionsverhalten verschiedener Substanzen aus der Gas- oder Flüssigphase an Modellmembranen untersucht. Lipidmembranen spielen in lebenden Organismen eine wesentliche Rolle. In Form von Doppelschichten organisieren sie die Abgrenzung der Zelle und der intrazellulären Kompartimente. In der Lunge reguliert eine komplexe Lipid-Protein Monolage, das sogenannte pulmonale Surfactant, den störungsfreien Gasaustausch. Heutzutage ist die menschliche Lunge vielen potenziell schädlichen Molekülen ausgesetzt, wie z.B. Lösungsmitteln und flüchtigen Substanzen, die in Farben, Lacken, Weichmachern, Waschmitteln und Anästhesiemitteln verwendet werden. Andererseits haben Substanzen wie Perfluorkohlenstoffe vielversprechende Eigenschaften, die geschädigtes Surfactant der Lunge unterstützen könnten. Um diese Wechselwirkungen besser zu verstehen, wurde der Einfluss von Alkanen und perfluorierten Substanzen auf Modellmembranen und ihre Wirkung auf pathophysiologische Proteinadsorptionsprozesse untersucht. Die natürliche Umgebung einer zellulären Membran ist eine Elektrolytlösung. Ionen spielen eine wichtige Rolle in Membran-assoziierten Prozessen, wie Signaltransduktion, Fusion, Endozytose und beeinflussen Protein/Membran-Wechselwirkungen. Ein weiterer Schwerpunkt dieser Arbeit ist die Untersuchung des Einflusses von Kationen auf die Membranstruktur und auf Proteinadsorptionsprozesse. Mit den oberflächensensitiven Röntgenstreumethoden Röntgenreflektivität und Röntgendiffraktion unter streifenden Einfall ist es möglich, Strukturen an Grenzflächen mit sub-Ångström Auflösung in-situ zu analysieren. Als Modellsysteme wurden Langmuirfilme an der Flüssigkeits/Gas-Grenzfläche sowie substratgebundene Lipidschichten an der Festkörper/Flüssigkeits- bzw. an der Festkörper/Gas-Grenzfläche untersucht. 165 124 108 Professional in-service training and personnel development planning in signs of the demographical change Qualification and participation in professional training of older employees does not look bleak - at an average examination. Though there are some patterns in career backgrounds which bear risks of deskilling and stagnation of the career for older employees. Relating to this fact age-appropriate interventions are necessary to shape the demographical change in work environments productivity. Corresponding examples - which are quite seldom - are showing that measures of professional training will take effect only if they are combined with developmental and educational promotion of work and personnel placement. An extensive implementation of such broad qualification strategies is bound to long-term personnel policy in companies but as well to governmental support. Berufsbegleitende Weiterbildung und Personalentwicklungsplanung 166 165 134 Between layed work and one's own work. A contribution to the debate on occupational society The subject of the article is the changing relevance of work to socialization and social integration. In pre-modern times work had no positive relevance to socialization, but was perceived negatively. This opinion did not change until the 18th century. Only in modern societies work and labour have a central relevance to socialization. Against this background the author presents different data to the the development of participation in work (especially sex-specific participation), of part-time-labour and of the structural change of occcupation in Germany. These data indicate a new role of work and especially of payed work in modern societies in the 21th century. Modern societies will remain working societies. But there are changes in the capacities of payed work, in the structures of production and in the organisation of labour, and there is every indication, that the future of work will develop beyond the traditional contrast of payed and unpayed labour. Zwischen Erwerbsarbeit und Eigenarbeit 167 126 131 Ordnungsverhalten von Stickstoff sowie Magnetismus in binären Nitriden einiger 3d-Metalle: Mn/N, Fe/N und Ni/N In this thesis investigations on binary nitrides of the 3d metals manganese, iron and nickel are reported. These materials are metallic interstitial compounds whose crystal structures are based on defect-anti-NiAs type (hcp) resp. defect-NaCl type (fcc arrangement of metal atoms) structures in which octahedral sites are partially occupied by N atoms. Virtual or experimentally accessible, paramagnetic high temperature states without long-range-order of N atoms are parent phases for all observed low temperature states which are ordered with respect to the N arrangement and/or magnetism. The main emphasis of the investigations was put on a quantitative characterisation of different superstructures by X-ray and neutron diffraction and on a critical comparison of the structures which are observed as a function of the metal, the N content and temperature. In dieser Arbeit wird über Untersuchungen an binären Nitriden der 3d-Übergangsmetalle Mangan, Eisen und Nickel berichtet. Diese sind metallische Einlagerungsverbindungen, deren Kristallstrukturen sich von einem Defekt-anti-NiAs-Typ (hcp-) bzw. einem Defekt-NaCl-Typ (fcc-Anordnung der Metallatome) mit jeweils partiell durch N-Atome besetzten Oktaederlücken herleiten. Ausgehend von virtuellen oder auch experimentell zugänglichen, paramagnetischen Hochtemperaturzuständen ohne Fernordnung der interstitiellen N-Atome lassen sich alle in dieser Arbeit beobachteten Tieftemperaturzustände niedrigerer Symmetrie entweder durch eine Ausordnung der N-Atome auf Oktaederlücken und/oder durch das Einsetzen magnetischer Ordnung verstehen. Die Untersuchungen konzentrierten sich dabei hauptsächlich auf eine quantitative Charakterisierung von unterschiedlichen Überstrukturen mittels Röntgen- und Neutronenbeugung und auf einen kritischen Vergleich von Strukturen, die als Funktion des beteiligten Metalls, des N-Gehalts und der Temperatur beobachtet werden. 168 256 246 Core-shell nanoparticles have found increased attention in the past years due to their many potential applications in material science, i.e. catalysis, optics and biomedicine. In this thesis, well-defined silica nanoparticles (SNPs) coated with poly(2-methyl-2-oxazoline) (PMeOx) have been prepared and characterized for biomedical applications. SNPs were synthesized through the reverse microemulsion method followed by the chemical binding of PMeOx chains to the surface of the silica core via various approaches including “grafting to”, “grafting from”, and in-situ immobilization and polymerization of 2-methyl-2-oxazoline (MeOx). For the synthesis of PMeOx-coated SNPs via the “grafting to” approach, two different methods were employed involving click chemistry and the silane coupling reaction; however, only the latter method resulted in a relatively higher grafting density. The hybrid nanoparticle synthesis was further improved by fabricating the polymer shell via the “grafting from” approach and immobilization of an initiator on the particle surface before polymerization. Grafting density and thickness of the polymeric shell was controlled by varying the polymerization time and monomer/initiator ratio concentration. These hybrid nanoparticles were further functionalized with fluorescein isothiocyanate and folic acid as a fluorescence imaging molecule and cancer-targeting ligand, respectively. Moreover, hybrid nanoparticles with tris(bipyridine)ruthenium(II) chloride as a fluorophore encapsulated in the silica core were prepared before the PMeOx shell was formed by the “grafting-from” method. Finally, a novel one-pot method was designed and optimized entitled “in situ immobilization and polymerization of monomer” for the synthesis of PMeOx-coated SNPs. This led to a grafting density similar to the “grafting to” approach with the advantage of a simplified the reaction procedure. Kern-Schale basierte Nanopartikel sind Materialien, die eine zunehmende Aufmerksamkeit erfahren aufgrund ihrer zahlreichen möglichen Anwendungen in den Materialwissenchaften, z. Bsp. der Katalyse, der Optik oder der Biomedizin. Im Rahmen dieser Arbeit wurden Silika-Nanopartikel (SNPs) hergestellt und charakterisiert für Biomedizinanwendungen, die mit einer Poly(2-methyl-2-oxazolin) (PMeOx) Hülle umgeben sind. SNPs wurden mithilfe der reversen Mikroemulsion hergestellt gefolgt von der kovalenten Kopplung der PMeOx-Ketten auf der Silikaoberfläche mithilfe verschiedener Techniken, wie die “grafting-to”, “grafting-from” und der in-situ Immobilisation und Polymerisation von 2-Methyl-2-oxazolin (MeOx). Für die Herstellung der PMeOx-beschichteten SNPs nach der “grafting-to” Methode, wurden zwei unterschiedliche Ansätze untersucht, dazu gehören die Click-Chemie und die Silan-Kupplungsreaktion; wobei nur die letztere zu relativ hohen Pfropfdichten führte. Die Synthese der Silikahybridpartikel wurde weiter verbessert durch Bildung der Polymerhülle mithife des “grafting-from” Verfahrens und Immobilisierung eines Initiators auf der Partikeloberfläche vor der Polymerisation. Die Pfropfdichte und die Dicke der Polymerhülle wurden kontrolliert durch Variation der Polymerisationszeit und der Monomer / Initiatorverhältnisse. Die so erhaltenen Hybridnanopartikel wurden weiter funktionalisiert mit Fluoresceinisothiocyanat für die bildgebende Diagnostik und Folsäure für das Tumor-spezifische aktive Targeting. Darüber hinaus konnte gezeigt werden, daß Fluorophore, wie Tris(bipyridine)ruthenium(II) chlorid in den Silikakern verkapselt werden können bevor die Oberflächen-initiierte Polymerisation von 2-Methyl-2-oxazolin durchgeführt wurde. Schließlich wurde eine Eintopfvariante entwickelt und optimiert, bei der in-situ der Initiator immobilisiert wird und die Polymerisation von 2-Methyl-2-oxazolin für die Bildung der PMeOx beschichteten SNPs abläuft. Dies führte zu einer Pfropfdichte ähnlich der, die bei der “grafting-to” Methode gefunden wurde, jedoch mit dem Vorteil der vereinfachten Reaktionsführung. 169 174 141 This anniversary issue contains a narrative audio story fostering language development: "Die Wetterschacht-Detektive" ("The Air Pit Detectives"). The audio play has been designed and pro-duced under the direction of the Technical University Dortmund in cooperation with the Hoffbauer University of Cooperative Education and the Folkwang University. The Dortmund Foundation funded the project. The audio play, which adresses mono- and multilingual primary school children in third and fourth grade as well as pupils in the first years of transition to secondary school, realiz-es a hitherto unique fulfilment of both scientific and artistic criteria. Based on several empirical studies proving the beneficial potential of narrative audio tapes to language development, six epi-sodes of a narrative audio series have been produced, which are especially suitable to enhancing the academic performance of conceptual writtenness. At the same time, the episodes are of such enter-taining design that the potential to assist in language development can be displayed in a casual way. The following article illustrates the artistic as well as linguistic principles of construction underly-ing this open access production. Die Wetterschacht-Detektive: Eine Hörspielserie zur Sprachförderung 170 216 192 School types and socioeconomic success in young adulthood: are different educational pathways equally rewarded on the labor market? Schulformen und sozioökonomischer Erfolg im jungen Erwachsenenalter: Werden unterschiedliche Ausbildungswege auf dem Arbeitsmarkt gleich honoriert? There has been much discussion of the extent to which the secondary school type attended influences learning and educational trajectories in Germany. However, little is yet known about the effects of school type on later labor market outcomes. This article aims to fill this gap by taking a longitudinal perspective on the effects of attending different secondary school types (following N = 5292 persons from the beginning of grade 7) on later occupational characteristics (job prestige, income, and unemployment at age 31 years). At first glance, the results point to differences between school types, but these effects are to a large extent explained by school/vocational qualifications and by individual and social differences. When it comes to predicting income and unemployment, at least, vocational qualifications, in particular, seem to be decisive. The effect of attending a vocational-track Hauptschule relative to the other school types remains associated with lower occupational status, however, even with additional control for individual and social background. The findings suggest that different educational pathways in the form of different secondary school types are indeed to some extent differently rewarded on the labor market: not in terms of income and unemployment, but in terms of occupational status. Inwiefern der Besuch unterschiedlicher Schulformen Lernen und Bildungsverläufe beeinflusst, ist ein vieldiskutiertes Thema. Arbeiten zu Effekten der Schulformen für den Erfolg auf dem Arbeitsmarkt liegen jedoch bislang nur wenige vor. Hier setzt der vorliegende Beitrag an, in dem in einer längsschnittlichen Perspektive (N = 5292 Personen) überprüft wird, welche Effekte der Besuch unterschiedlicher Schulformen in der Sekundarstufe (vom Beginn der 7. Klasse) auf spätere berufliche Merkmale (Berufsprestige, Einkommen und Arbeitslosigkeit im Alter von knapp 31 Jahren) aufweist. Die Ergebnisse weisen prima facie auf Unterschiede zwischen Schulformen hin, aber ein Großteil der Effekte lässt sich durch schulische bzw. berufliche Abschlüsse, sowie individuelle und soziale Hintergrundunterschiede erklären. Zumindest für das Einkommen und Arbeitslosigkeit erscheinen vor allem die schulischen und beruflichen Abschlüsse maßgebend. Der Effekt des Besuchs der Hauptschule im Vergleich zu anderen Schulformen bleibt jedoch mit einem niedrigeren Berufsprestige assoziiert, auch unter zusätzlicher Kontrolle des individuellen und sozialen Hintergrundes. Die Ergebnisse legen nahe, dass unterschiedliche Wege durch die Schulformen der Sekundarstufe auf dem Arbeitsmarkt partiell differenziell entlohnt werden: nicht für das Einkommen und Erwerbslosigkeit, aber für den beruflichen Status. 171 123 101 High pressure SAXS studies on lysozyme solutions of high ionic strength Highly concentrated protein solution were found to yield a large number of different phases, like amorphous aggregates, gels, crystals, or a liquid-liquid phase separation, which are all governed by the underlying protein-protein interactions in water. The interactions in dense protein solutions are highly complex, changes in the aqueous environment influence the inter- and intramolecular interactions, the protein-solvent interactions, and the solvent-solvent interactions. In this thesis, small angle X-ray scattering in combination with hydrostatic pressure perturbation was used to investigate the intermolecular interaction potential and the resulting phase behavior of dense lysozyme solutions. A reentrant liquid-liquid phase separation at elevated pressures was discovered, which could be ascribed to the solvent mediated protein-protein interactions. Hochkonzentrierte Proteinlösungen können eine Vielzahl verschiedener Phasen bilden, wie zum Beispiel amorphe Aggregate, Gele, Kristalle oder eine flüssig/flüssig-Phasentrennung, welche alle durch die zugrundeliegenden Protein-Protein-Wechselwirkungen beeinflusst werden. Die Wechselwirkungen in dichten Proteinlösungen sind sehr komplex, Änderungen in der wässrigen Umgebung beeinflussen die inter- und intramolekularen Wechselwirkungen, die Protein-Lösungsmittel-Wechselwirkungen und die Wechselwirkungen im Lösungsmittel selbst. Röntgenkleinwinkelstreuung in Kombination mit hohen hydrostatischen Drücken wurde in dieser Arbeit genutzt, um das intermolekulare Wechselwirkungspotential und das daraus resultierende Phasenverhalten von hochkonzentrierten Lysozymlösungen zu untersuchen. Eine Wiedereintrittsverhalten der flüssig/flüssig-Phasentrennung bei erhöhten Drücken wurde entdeckt, welches sich auf die durch die wässrige Lösung vermittelte Protein-Protein-Wechselwirkung zurückführen lassen konnte. 172 413 327 Between instructive an selfreflexive pradigm Zwischen instruierendem und selbstreflexivem Paradigma 173 73 63 Work, sustainability and employment Arbeit, Nachhaltigkeit und Beschäftigung The interdependence of sustainability, growth, employment and structural change in the long run are discussed and a quantification of growth- and employment-effect is given by recently published analyses of "economic-social" and "ecological-economic" strategies as well as by a mesoeconomic study concerning ecologically structured investment in the residence construction industry. The integration of environmental protection and long run structural change could revive economic growth and counteract the stagnative trend respectively. Die Analyse der Zusammenhänge von nachhaltigem Wirtschaften einerseits und Wachstum, Beschäftigung und Strukturwandel andererseits steht im Mittelpunkt. Anhand jüngst publizierten makroökonomischen Szenarien sowie einem mesoökonomischen Beispiel aus dem Wohnungsbau werden die Wachstums- und Beschäftigungswirkungen ökologisch orientierten Interventionismus auch quantitativ umrissen. Die Integration der Nachhaltigkeitspolitik in den langfristigen Strukturwandel bietet die Möglichkeit, der säkularen Wachstumsabschwächung zumindest temporär entgegen zu wirken. 174 66 69 Design and analysis of integrated circuits by evolutionary algorithms Design und Analyse integrierter Schaltungen mit evolutionären Algorithmen The survey of innovative circuit techniques and devices demands specific system knowledge to determine suitable integrated circuit design. To support this process an approach of automated circuit design by evolutionary algorithms is presented and implemented at exemplary basic circuits. The further use of evolutionary algorithms to vector optimization, allows analyzing integrated circuits by identifying circuit parameter dependencies. Die Untersuchung neuartiger Schaltungstechniken und Bauelemente erfordert die Erarbeitung spezifischen Systemwissens zur Bestimmung eines geeigneten Entwurfes für integrierte Schaltungen. Zur Unterstützung dieses Prozesses wird in dieser Arbeit der Ansatz eines automatisierten Schaltungsdesigns mit Hilfe evolutionärer Algorithmen vorgestellt und am Beispiel einfacher Grundschaltungen umgesetzt. Die weitergehende Verwendung evolutionärer Algorithmen zur Vektoroptimierung erlaubt die Analyse integrierter Schaltungen durch Identifikation von Parameterabhängigkeiten der Schaltung. 175 187 191 Untersuchungen der elektrischen Leitfähigkeit der flüssigen Legierungen Cs-Pb, K-Sb, und K-Bi in Abhängigkeit von Druck und Temperatur The aim of this work was the measuring of the electrical dc conductivity for the Zintl alloys Cs-Pb, K-Sb and K-Bi in a wide temperature range. The results of the experiments are combined with the results of neutron scattering experiments, to provide information about the correlation of structural and electronic properties of the alloys in the expanded state. Liquid Zintl alloys are very complex molecular liquids with a distinct short range order even in the expanded state. Covalent bonded polyanions are formed in the alloy by a partial charge transfer from the electropositive metal to the electronegative one. The structure of the alloy depends on the strength of this interaction and the size of the alkali metal. Also thermodynamic and transport properties like the electrical conductivity are affected by these effects. Conductivity measurements are carried out up to 1000 K above the melting points of the alloys. The measurement setup for the temperatures up to 1000 K is developed and an autoclave is built for the experiments. For the high temperature experiments the high temperature neutron scattering technique is modified to meet the requirements of conductivity measurements. Ziel dieser Arbeit war es, die elektrische Gleichstromleitfähigkeit der Zintlphasen Cs-Pb, K-Sb und K-Bi über einen großen Temperaturbereich zu beobachten und mit den Ergebnissen der Strukturuntersuchungen zu verknüpfen, um Aussagen über die Korrelation zwischen strukturellen und elektronischen Eigenschaften der Legierungen im expandierten Zustand treffen zu können. Die flüssigen Zintlphasen sind äußerst komplexe molekulare Flüssigkeiten, die eine ausgeprägte Nahordnung bis in den expandierten Zustand besitzen. In der Legierung bilden sich durch partiellen Ladungstransfer vom elektropositiveren zum elektronegativeren Metall kovalent gebundene Polyanionen aus. Neben der Stärke der Wechselwirkungen hängt die Struktur der Legierung auch von der Größe des Alkalimetalls ab. Auch die thermodynamischen Eigenschaften und Transportgrößen, wie die elektrische Leitfähigkeit, werden von diesen Effekten beeinflußt. Es werden Leitfähigkeitsmessungen im Temperaturbereich von bis zu 1000 K oberhalb des Schmelzpunktes der jeweiligen Legierung durchgeführt. Für die Messungen im unteren Temperaturbereich bis maximal 1000 K wird eine Meßanordnung entwickelt und der für die Experimente notwendige Autoklav konstruiert und gebaut. Für die Hochtemperaturexperimente wird eine bei der Hochtemperatur-Neutronenstreuung angewandte experimentelle Technik weiterentwickelt, um den Anforderungen der Leitfähigkeitsmessungen gerecht zu werden. 176 555 454 Application-specific microwave resonator development: addressing the challenges of modern electron paramagnetic resonance Electron paramagnetic resonance (EPR) is a spectroscopic technique to study the interaction between free electrons and the local molecular environment. Over the past 60 years, EPR instrumentation and methodology has been developed to study, for example, the structure and dynamics of proteins, chemical reactions of organic-based radicals, transition-metal chemistry, catalytic reactions, electron transfer processes, and metalloenzymes. Because of these past developments, EPR has become a powerful tool for chemists and physicists alike. However, there remain several challenges in modern EPR that can be addressed by the development of application-specific microwave resonators. Three challenges are investigated: (i) improving the homogeneity of the magnetic flux density profile incident on a sample volume for applications to pulse EPR at Q-band frequencies (35 GHz); (ii) enhancing the sensitivity of EPR in the THz-bandgap (100 GHz to 1 THz frequency range; 3.34-33.36 cm1 energy range) to improve the detection of thin films with the use of a resonant meta-materials; and (iii) improving the absolute sensitivity at X-band frequencies (9.5 GHz) for the study of protein single-crystals with volumes less than 85 nl. First, the introduction of a uniform field re-entrant TE01U cavity at Q-band frequencies provides a 10 mm region-of-interest with a microwave field uniformity of 98%. The homogeneous field increases the microwave conversion factor by 60%. This design implements a waveguide H-type T-junction coupler with inductive obstacles to improve the coupling efficiency. The resonator is tested with a standard sample and shown to significantly improve the excitation profile for pulse EPR. Second, an investigation of the interaction between a split-ring resonator meta-material surface and a protein sample is presented as a way to increase the EPR signal for sub-THz frequencies. Data is collected using Frequency-Domain Fourier-Transform THz-EPR in the energy range of 11-18 cm1. The interaction of the EPR signal with a meta-material resonating at 14 cm1 is modeled with a lumped-circuit transmission-line. It was found that both inductive and capacitive coupling is required to fully understand this complex system. From this analysis, a factor of 4 in the EPR signal is shown for an active sample height of 24 m. Next, the absolute sensitivity at X-band frequencies has been increased up to a factor of 30 compared to commercial resonators by the implementation of a self-resonant micro-helix. This 0.4 mm inner diameter helix provides a resonator efficiency of 3.2 mT/W1=2 corresponding to a =2 pulse of 20 ns with an incident power of only 20 mW in a volume of 85 nl. This geometry is measured to have an absolute spin sensitivity of 64 106 Spins/G in 50 minutes of measurement time. Finally, the self-resonant micro-helix is used to obtain, for the first time, the angular dependence of the EPR signal from a protein single-crystal of [FeFe]-hydrogenase in the Hox state from Clostridium pasteurianum (CpI) with a volume of 3 nL. A signal-to-noise ratio of 290 was achieved for 4:25 109 spins in 8 minutes of measurement time. Full g-tensor analysis was successfully performed and an orientation of the principal axes is discussed. With the excellent signal-to-noise ratio, data was also collected on the same protein crystal using an ESEEM/HYSCORE pulse sequence. In total, this work pushes the state-of-the-art in EPR instrumentation allowing for new methodology development and broadening the applications available to chemists and physicists. Elektronenspinresonanz (ESR oder auch EPR) ist eine spektroskopische Technik zur Untersuchung der Wechselwirkung zwischen freien Elektronen und deren lokaler molekularer Umgebung. In den letzten 60 Jahren wurden EPR-Instrumente und -Methoden entwickelt, um beispielsweise die Struktur und Dynamik von Proteinen, chemische Reaktionen organischer Radikale, Übergangsmetallchemie, katalytische Reaktionen, Elektronentransferprozesse und Metalloenzyme zu untersuchen. Aufgrund dieser Entwicklungen hat sich die EPR zu einem leistungsstarken Werkzeug für Chemiker und Physiker entwickelt. Jedoch verbleiben in der modernen EPR noch einige Herausforderungen, die durch die Entwicklung von anwendungsspezifischen Mikrowellenresonatoren adressiert werden können. In dieser Dissertation werden drei Herausforderungen adressiert: (i) Verbesserung der Homogenität des magnetischen Flussdichteprofils im Probenvolumen für Anwendungen mit gepulster EPR bei Q-Band-Frequenzen (35 GHz); (ii) Erhöhung der Empfindlichkeit in dem THz-Bandgap (100 GHz bis 1 THz Frequenzbereich; 3,34-33,36 cm1 Energiebereich) zur Verbesserung der Detektion von dünnen Schichten unter Verwendung eines resonanten Metamaterials; und (iii) Verbesserung der absoluten Empfindlichkeit bei X-Band-Frequenzen (9,5 GHz) für die Untersuchung von Protein-Einkristallen mit Volumina unter 30 nl. Die Einführung eines homogenen Feld “re-entrant” TE01U Resonators für Q-Band-Frequenzen bietet einen 10 mm Bereich mit einer Mikrowellenfelduniformität von 98%. Das homogene Feld erhöht den Mikrowellenkonversionsfaktor um 60%. Dieses Design verwendet einen H-Typ Wellenleiter mit einem T-Übergangskoppler mit induktiven Störungen um die Kopplungseffizienz zu verbessern. Der Resonator wurde mit einer Standardprobe getestet und zeigt eine signifikante Verbesserung des Anregungsprofiles für gepulste EPR. Zweitens wurde eine Untersuchung der Wechselwirkung zwischen der Meta-Materialoberfläche eines Spaltringresonators und einer Proteinprobe als Möglichkeit zur Erhöhung des EPR-Signals für Sub-THz-Frequenzen vorgestellt. Die Daten wurden mit Hilfe von Fourier-transformierter THz-EPR in der Frequenzdomäne im Energiebereich von 11-18 cm1 gesammelt. Die Wechselwirkung zwischen dem EPRSignal und einem Metamaterial mit einer Resonanz bei 14 cm1, wird mit einer lumpedcircuit transmission-line modelliert. Es wurde festgestellt, dass für das vollständige Verständnis dieses komplexen Systems sowohl eine induktive als auch eine kapazitive Kopplung erforderlich ist. Bei einer Probenhöhe von 24 m wurde eine Verbesserung des EPR-Signals um den Faktor 4 erreicht. Anschließend wurde die absolute Empfindlichkeit bei X-Band-Frequenzen gegenüber kommerziellen Resonatoren durch die Implementierung einer selbstresonanten Mikrohelix um den Faktor 30 erhöht. Diese Helix mit einem 0,4 mm Innendurchmesser bietet einen Resonatorwirkungsgrad von 3,2 mT/W1=2, was einem 20 ns =2-Puls bei einer Leistung von nur 20 mW bei einem Volumen von 85 nl entspricht. Schließlich konnte mit dieser selbstresonanten Mikrohelix erstmals die Winkelabhängigkeit des EPR-Signals eines Proteineinkristalls der [FeFe]-Hydrogenase im Hox Zustand aus Clostridium pasteurianum (CpI) mit einem Volumen von 3 nL erhalten werden. Eine vollständige g-Tensoranalyse wurde erfolgreich durchgeführt und die Orientierung der Hauptachsen ermittelt. Mit dem ausgezeichneten Signal-Rausch- Verhältnis wurden auch Daten mit ESEEM/HYSCORE-Pulssequenzen an demselben Proteineinkristall gesammelt. Insgesamt bringt diese Arbeit den Stand der Technik in der EPR-Instrumentierung voran, was die Entwicklung neuer Methoden und eine Erweiterung der Anwendungen in Chemie und Physik ermöglicht. 177 304 266 Ermittlung der dreidimensionalen, mechanischen Eigenschaften von Formkörpern aus Fasermaterialien und deren FE-Modellierung This thesis addresses the macroscopic characterization of the spatial material properties of moulded pulp products. In the first instance the underlying production process of moulded pulp samples is examined with the objective of homogenization of the samples later used. Based on rheological properties of the fibre suspension the forming process ist evaluated both theoretically and practically to enable the prediction of fibre orientation and porosity of the formed fibre mats. In a subsequent step a relationship between the mean sample width (measured with a 3D-scanner) and the specimen grammage is established. The examination of the physical material properties concludes with an evaluation of the hygroscopic material response. A procedure based on Fick's equation is proposed by which absorption processes can be calculated as a function of the target climate. To determine the mechanical material parameters in z-direction the known Arcan experimental setup is modified. The analysis of the experimental data including statistical classification is realized fully automatic throughout the whole scope of experiments. The outlined algorithms can be adapted to other specimen and experiment parameters by adjustable variables. Beside the experimental investigation of the initially assumed transversal isotropic material behaviour using in-plane tensile, compression and shear tests as well as the same tests in the perpendicular direction, one chapter focusses on the viscoelastic material respone in form of stress relaxation and creep experiments. Hardening and modul degradation behavior is analysed by means of hysteresis tests. The subsequent finite element modelling treats the in-plane tensile and shear behaviour via a classic Hill yield approach and a hardening law of the saturation type while furthermore the applicability of tensorial type failure criteria is evaluated. To describe the observerd viscious effects a modified time hardening law is used. Finally the modelling of the delamination behaviour in z-direction is carried out by means of an cohesive zone model. Diese Arbeit widmet sich der makroskopischen Charakterisierung der räumlichen Materialeigenschaften von Zellstoffproben aus Primärfasern. Zunächst erfolgt eine Betrachtung des zu Grunde liegenden Herstellungsprozesses mit dem Ziel der Homogenisierung der für die späteren Versuche benutzten Probenkörper. Aufbauend auf den rheologischen Eigenschaften der Fasersuspension wird der Anformvorgang theoretisch und praktisch untersucht, um Vorhersagen über Faserausrichtung und Porosität des angeformten Faservlieses zu ermöglichen. In einem nächsten Schritt wird ein Zusammenhang zwischen der mit Hilfe eines 3D-Scanners gemessenen mittleren Probendicke und dem Flächengewicht hergestellt. Die Betrachtung der physikalischen Materialeigenschaften schließt mit einer Untersuchung der hygroskopischen Materialantwort. Basierend auf der Fick'schen Gleichung wird ein Verfahren vorgestellt, mit dem in Abhängigkeit des Zielklimas Absorptionsverläufe berechnet werden können. Zur Bestimmung der mechanischen Materialparameter in z-Richtung wird der aus der Literatur bekannte Arcan-Versuchsaufbau modifiziert. Die Auswertung der aufgenommen Versuchsdaten inklusive der statistischen Einordnung erfolgt über die gesamte Bandbreite der durchgeführten Versuche vollautomatisch. Die skizzierten Algorithmen lassen sich über Variablen an andere Proben- bzw. Versuchsparameter anpassen. Neben der experimentellen Untersuchung des als initial transversal isotrop angenommenen Materialverhaltens mittels Zug-, Druck- und Scherversuchen in der Anformebene sowie der dazu orthotropen Richtung widmet sich ein Kapitel der viskoelastischen Materialantwort in Form von Spannungsrelaxations- und Kriechversuchen. Das Verfestigungs- und das Moduldegradationsverhalten wird mit Hilfe von Hysterese-Versuchen analysiert. Die anschließende FE-Modellierung betrachtet das Zug- und Scherverhalten in der Ebene mittels klassischer Hill'scher Fließgrenze und einem Verfestigungsgesetz vom Sättigungstyp. Die Anwendbarkeit tensorieller Versagenskriterien wird zudem bewertet. Zur Beschreibung der beobachteten viskosen Effekte wird ein modifiziertes Zeitverfestigungsgesetz angewandt. Letztendlich erfolgt die Modellierung des Delaminationsverhaltens in z-Richtung mittels eines Kohäsivzonenmodells. 178 86 120 The industrial sociologist as organizational adviser Der Industriesoziologe als Organisationsberater Referring to consulting processes concerning the implementation of teamwork the article deals with the relationship between industrial sociology and the consulting of organization. The author tries to answer the question as to how sociological knowledge about social change in organizations may help actors to control the organizational change process. Referring to the debate about new consulting concepts he outlines the fundamentals of a consulting process which enables the organizational actors to change their structures and processes according to their objects. Aufgrund eigener Erfahrungen in unternehmensfinanzierten Beratungsprojekten zur Einführung von Gruppenarbeit setzt der Autor sich mit dem Verhältnis von Industriesoziologie und Organisationsberatung auseinander. Ausgehend von einem veränderten Verständnis des technisch-organisatorischen Wandels, in dessen Folge die Organisation als Ort der Gestaltung von Arbeit und Technik stärker in den Mittelpunkt des Interesses industriesoziologischer Forschungsarbeiten gerückt wurde, wird der Frage nachgegangen, wie das so erarbeitete Wissen über den sozialen Charakter von Veränderungsprozessen in Organisationen seine Wirksamkeit entfalten kann. Im Rückgriff auf die aktuelle Diskussion um systemische Beratungskonzepte skizziert er am praktischen Beispiel die Grundzüge einer Beratungsarbeit, die - im Dialog mit den betrieblichen Akteuren - diesen hilft Gestaltungskonzepte zu erarbeiten und die betriebliche Realität entsprechend der eigenen Zielstellungen zu verändern. 179 359 302 Modelling of evolving microstructures at different scales This thesis deals with the development of novel material models that capture the evolution of microstructures. The analysis of microstructures is essential for the description of metallic material properties, which are considered in this thesis. Depending on the underlying application, microstructures are analysed on the technological relevant macroscale or on the materials science relevant microscale. Independent of the underlying scale, mechanical and thermal loadings are the most dominating factors of evolving microstructures. The objective of this work is to capture evolving microstructures for the technologically relevant macroscale as well as for the materials science relevant microscale. A key aspect of a macroscopically motivated modelling is related to the temperature prediction in metals which are induced by plastic deformations. By means of a novel and generalised coupling, which is based on an adopted decomposition of stored and dissipative energy parts, a more realistic temperature prediction compared to standard coupling approaches is achieved. Furthermore, the anisotropic texture evolution in hardening processes is incorporated by a generalised distortional hardening model, which takes account of the distortion of a yield surface. Based on the novel thermomechanical coupling and distortional hardening, the relevant mechanisms are captured on the macroscale. In addition to the macroscopic modelling and in order to obtain a more detailed insight into microstructures, the heterogeneity of microstructures and the underlying transformation of phases is described by means of phase field theories. A problem in existing phase field models pertains the determination of effective properties in the diffuse interface. In order to describe microstructures as exactly as possible, a generalised phase field model is developed incorporating state-of-the-art as well as novel and more efficient homogenisation assumptions. For the phase transformations, Allen-Cahn-type and Cahn-Hilliard-type models are applied so that the most important effects of the evolution of microstructures are included. All material models are derived three-dimensionally at finite strains and are based on thermodynamically consistent formulations. Considering an overall variational modelling, the balance and evolution equations follow jointly from underlying minimisation principles. The derived formulations are efficiently implemented in finite elements and are implicitly and monolithically solved. Demonstrative examples show the capability of the derived models. Die vorliegende Arbeit befasst sich mit der Entwicklung neuer Materialmodelle zur Abbildung der Evolution von Mikrostrukturen. Die Untersuchung von Mikrostrukturen ist essenziell für die Eigenschaftscharakterisierung von metallischen Werkstoffen, welche im Rahmen dieser Arbeit beschrieben werden. In Abhängigkeit der betrachteten Anwendung werden Mikrostrukturen auf der technologisch wichtigen Makroskala oder der materialwissenschaftlich wichtigen Mikroskala untersucht. Unabhängig von der zu untersuchenden Skala sind mechanische und thermische Belastungen die dominierenden Faktoren einer Mikrostrukturentwicklung. Das Ziel dieser Arbeit ist die Berücksichtigung von Mikrostrukturentwicklungen sowohl auf der Makroskala als auch auf der Mikroskala. Ein wesentlicher Aspekt einer makroskopisch motivierten Modellierung betrifft die Temperaturvorhersage in Metallen aufgrund plastischer Verformungen. Mit Hilfe eines neuen und allgemeinen Kopplungsansatzes, der auf einer angepassten Aufteilung gespeicherter und dissipativer Energieanteile basiert, wird eine realistischere Temperaturvorhersage gegenüber gewöhnlichen Kopplungsansätzen getroffen. Des Weiteren werden anisotrope Texturevolutionen durch ein verallgemeinertes Distorsionsverfestigungsgesetz berücksichtigt, welches auf Formänderung einer Fließfunktion beruht. Durch die Verbindung der neuen Temperaturkopplung und Distorsionsverfestigung werden die relevanten Mechanismen der Makroskala abgebildet. Um ein detaillierteres Verständnis von Mikrostrukturen zu bekommen, werden die Heterogenität von Mikrostrukturen und die damit verbundene Umwandlung von Phasen aufgrund von mechanischen Lasten zusätzlich zum zuvor beschriebenen makroskopischen Modell mittels Phasenfeldtheorien untersucht. Ein Problem in bisherigen Phasenfeldmodellen stellt dabei die Bestimmung der effektiven Eigenschaften im Diffuse Interface dar. Um Mikrostrukturen möglichst genau charakterisieren zu können, wird ein verallgemeinertes Phasenfeldmodell entwickelt, das sowohl etablierte als auch neue und effizientere Homogenisierungstheorien einbindet. Für die Phasenumwandlungsprozesse werden sowohl Allen-Cahn als auch Cahn-Hilliard ähnliche Modelle verwendet, so dass die wesentlichen Effekte einer Mikrostrukturentwicklung wiedergegeben werden. Alle Materialmodelle sind dreidimensional für finite Verformungen entwickelt und basieren auf thermodynamisch konsistenten Ansätzen. Unter Berücksichtigung variationeller Modellierungsansätze folgen die Bilanz- und Evolutionsgleichungen aus Minimierungsprinzipien. Darauf basierend werden die hergeleiteten Modellformulierungen numerisch effizient in die Finite Elemente Methode implementiert und implizit monolithisch gelöst. Mittels geeigneter Beispiele werden die Eigenschaften aller Modelle veranschaulicht. 180 309 283 Evaluation of C-prenylating enzymes for the heterologous biosynthesis of cannabigerolic acid Aromatic prenyltransferases catalyze the prenylation of an electron-rich aromatic compound by a prenyl diphosphate by transfer a prenyl residue to carbon, nitrogen or an oxygen atom of the aromatic acceptor molecule. The bioactivity of the resulting products is often increased, compared to the non-prenylated substrates. Prenylation of aromatic compounds is important for the diversification of secondary metabolites like phytocannabinoids. The membrane-bound cannabigerolic acid synthase from Cannabis sativa catalyzes the prenylation of olivetolic acid (OA) with geranyl diphosphate (GPP) to form cannabigerolic acid (CBGA). CBGA is the central precursor of the main pharmacologically active compounds of C. sativa: Δ9-tetrahydrocannabinol (THC) and cannabidiol (CBD). A biotechnological production using heterologous yeast presents a promising alternative to meet the increasing pharmaceutical demand and interest in these cannabinoids. In this regard, this study aimed for the identification of potential aromatic prenyltransferases able to produce CBGA and their heterologous expression. Three different membrane-bound aromatic prenyltransferases, isolated from C. sativa, were expressed in Saccharomyces cerevisiae, but were not able to produce CBGA. Furthermore, the soluble aromatic prenyltransferase NphB, first isolated from Streptomyces sp. strain CL190, was investigated as an alternative. Beside the desired product CBGA, NphB forms a major side-product, 2-O-geranyl olivetolic acid. Therefore, NphB variants were tested in a low-throughput screening system in order to improve the product specificity towards CBGA and to enable higher specific activities. Additionally, the simultaneous functional expression of nphB and the final enzyme of the cannabinoid pathway, tetrahydrocannabinolic acid synthase (THCAS), in S. cerevisiae is presented. This study presented for the first time that the soluble aromatic prenyltransferase NphB produces CBGA from precursors OA and GPP. The obtained results therefore promote the generation of a cannabinoid producing yeast for a biotechnological approach in order to face the increasing demand of the phytocannabinoids CBD and THC in the medical sector. Aromatische Prenyltransferasen biokatalysieren die Prenylierung eines Elektronen-reichen Aromaten mit Hilfe eines Prenyldiphosphates durch die Übertragung des Prenylrestes auf ein Kohlenstoff-, Stickstoff- oder Sauerstoffatom des aromatischen Akzetormoleküls. Prenylierte Substanzen weisen oft eine höhere Bioaktivität als die entsprechenden nicht-prenylierten Moleküle auf. Die Prenylierung von Aromaten ist wichtig für die Vielfalt von Sekundärmetaboliten wie Phytocannabinoiden. Die Membran-gebundene Cannabigerolsäure Synthase (CBGAS) aus Cannabis sativa biokatalysiert die Bildung von Cannabigerolsäure (CBGA) durch die Prenylierung von Olivetolsäure (OA) mit Geranyldiphosphat (GPP). CBGA ist das zentrale Intermediat für die pharmakologisch aktiven Substanzen Δ9-Tetrahydrocannabinol (THC) und Cannabidiol (CBD) aus C. sativa. Eine biotechnologische Produktion mit Hilfe von heterologen Wirtszellen wie Hefe stellt eine vielversprechende Alternative dar, um dem steigenden pharmazeutischen Bedarf und Interesse an diesen Cannabinoiden gerecht zu werden. Im Hinblick darauf sollten im Rahmen dieser Arbeit potentielle aromatische Prenyltransferasen identifiziert und heterolog exprimiert werden, die in der Lage sind CBGA zu produzieren. Drei unterschiedliche Membran-gebundene aromatische Prenyltransferasen aus C. sativa wurden in Saccharomyces cerevisiae exprimiert, es konnte aber keine CBGA Produktion nachgewiesen werden. Als Alternative zur CBGAS wurde die lösliche aromatische Prenyltransferase NphB aus Streptomyces sp. strain CL190 in Betracht gezogen. NphB bildet hauptsächlich 2-O-geranyl Olivetolsäure und CBGA nur als Nebenprodukt. Mit Hilfe eines Screening Systems sind verschiedene NphB Mutanten im Hinblick auf verbesserte Produktspezifitäten und höhere spezifische Aktivitäten untersucht worden. Des Weiteren wird die funktionale Expression von nphB sowie die co-Expression von nphB und dem finalen Enzym des Cannabinoid Biosyntheseweges, Tetrahydrocannabinolsäure Synthase (THCAS), in S. cerevisiae präsentiert. Die vorliegende Arbeit zeigt zum ersten Mal, dass die lösliche aromatische Prenyltransferase NphB die Bildung von CBGA aus OA und GPP biokatalysiert. Die gezeigten Ergebnisse unterstützen die Entwicklung einer Cannabinoid-produzierenden Hefe für die biotechnologische Produktion der pharmazeutisch bedeutsamen Phytocannabinoide CBD und THC. 181 236 222 Complexity of bulk-robust combinatorial optimization problems This thesis studies three robust combinatorial optimization problems on graphs. Most robust combinatorial optimization problems assume that the cost of the resources, e.g. edges in a graph, are uncertain. In this thesis, however, we study the so called bulk-robust approach which models the uncertainty in the underlying combinatorial structure. To be more precise, in the bulk-robust model we are given an explicit list of scenarios comprising a set of resources each, which fail if the corresponding scenario materializes. Additionally, we are given a property that we have to obtain such as 'containing a perfect matching', 's-t-connectivity', or 'being connected', which may arise from a fundamental combinatorial optimization problem. The goal of the bulk-robust optimization problem is to find a minimum weight set of resources such that the desired property is satisfied no matter which scenario materializes, i.e. no matter which set of resources from the list is removed. We study the bulk-robust bipartite matching problem, the bulk-robust k-edge disjoint s-t-paths problem, and the bulk-robust minimum spanning tree problem. We investigate the complexity of the three problems and show that most of them are hard to approximate even if the list of scenarios consists of singletons only. We complement these inapproximability results with polynomial-time approximation algorithms that essentially match the hardness results. Furthermore, we present FPT and XP algorithms and consider special graph classes that allow for a polynomial-time exact algorithm. In dieser Arbeit werden drei robuste kombinatorische Optimierungsprobleme auf Graphen behandelt. Die meisten robusten kombinatorischen Optimierungsprobleme nehmen an, dass die Kosten der Ressourcen, z.B. Kanten in einem Graph, unsicher sind. Diese Arbeit jedoch behandelt den Ansatz der sogenannten bulk-Robustheit, die Unsicherheiten in der kombinatorischen Struktur widerspiegelt. Genauer gesagt ist im bulk-robusten Modell eine explizite Liste von Szenarien gegegeben und jedes dieser Szenarien enthält eine Menge von Ressourcen, die ausfällt, wenn das entsprechende Szenario eintritt. Zusätzlich ist noch eine Eigenschaft gegeben, die wir erzeugen müssen. Diese Eigenschaft könnte beispielsweise sein, dass der resultierende Graph ein perfektes Matching enthält, zwei bestimmte Knoten miteinander verbindet oder zusammenhängend ist. Das Ziel des bulk-robusten Optimierungsproblems ist es, eine kosten-minimale Menge von Ressourcen zu finden, sodass die gewünschte Eigenschaft erfüllt ist, egal welches Szenario eintrifft, d.h. unabhängig davon, welche Menge von Resourcen der Liste von der Lösung entfernt wird. Diese Arbeit behandelt das bulk-robuste bipartite Matchingproblem, das bulk-robuste k-Kanten disjunkte s-t-Wege Problem und das bulk-robuste minimale Spannbaum Problem. Wir beschäftigen uns mit der Komplexität der drei Probleme und zeigen, dass die meisten sogar dann schwer zu approximieren sind, wenn die Liste der Szenarien nur aus einelementigen Mengen besteht. Wir komplementieren diese nicht-Approximierbarkeitsresultate mit effizienten Approximationsalgorithmen, deren Güte im Wesentlichen den hardness-Resultaten entspricht. Darüber hinaus präsentieren wir FPT und XP Algorithmen und entwickeln effiziente exakte Algorithmen für spezielle Graphklassen. 182 75 103 The use of apps requires user’s trust concerning the security of their data and the usefulness of the app. While apps can be used as a means for real-time governance, there is both sociological and governmental interest in gathering insights about the characteristics of human-app-interaction. We model this interaction and find empirical evidence, using a large-scale survey, that trust is a key factor in this interaction concerning user’s willingness to change behavior following app-induced recommendations. Vertrauen in mobile Applikationen 183 220 192 Chemomechanical simulation of microtubule dynamics Microtubules are hollow cylindrical filaments that are part of the cytoskeleton. During their growth, they exhibit “dynamic instability”, i.e., they can suddenly switch from growing to shrinking (catastrophe) and vice versa (rescue). Obtaining a microscopic understanding of this dynamic instability will also provide a better insight into basic cell functions like cell division and can provide a pathway to manipulate such processes. We introduce and parameterize a microtubule model that combines a mechanical, three-dimensional model of the microtubule's structure with the chemical processes happening during its growth. These chemical processes are the polymerization and depolymerization of tubulin dimers, the building blocks of microtubules, the formation and rupture of lateral bonds between neighboring tubulin monomers, and random hydrolysis. By ensuring that the simulation is computationally efficient despite the need for energy minimizations after each event, we are able to simulate microtubule growth for realistic timescales to observe catastrophes and rescues. In addition to analyzing different properties of the simulated microtubules and investigating the effects of dilution, i.e., the sudden decrease of the concentration of free tubulin dimers around the microtubule, we also consider mechanical feedback on the hydrolysis rate. We find this mechanical feedback to result in an effective anti-vectorial hydrolysis mechanism and that there are GTP-tubulin dimers much further away from the microtubule's plus end. Mikrotubuli sind hohle, zylinderförmige Filamente und bilden ein Bestandteil des Zytoskeletts. Die Wachstumdynamik der Mikrotubuli ist durch ihre „dynamische Instabilität“ geprägt, dem plötzlichen Wechsel von Wachstum zu Schrumpfen (Katastrophe) und umgekehrt (Rettung). Eine mikroskopische Theorie dieser dynamischen Instabilität ist die Grundlage für ein besseres Verständnis grundlegender Zellfunktionen wie der Zellteilung und eröffnet Möglichkeiten solche Prozesse zu beeinflusssen. Wir beschreiben und parametrisieren ein Mikrotubulus-Modell, das ein mechanisches, dreidimensionales Modell der Mikrotubulus-Struktur mit den chemischen Prozessen während des Wachstums verknüpft. Diese chemischen Prozesse sind die Polymerisation und Depolymerisation von Tubulin-Dimeren, den Bausteinen der Mikrotubuli, das Entstehen und Reißen von lateralen Bindungen zwischen benachbarten Tubulin-Monomeren und zufällige Hydrolyse. Aufgrund der Effizienz der Simulation trotz der Energieminimierungen nach jedem Event sind wir in der Lage, Mikrotubuli-Wachstum auf realistischen Zeitskalen zu simulieren und Katastrophen und Rettungen zu beobachten. Zusätzlich zur Analyse verschiedener Eigenschaften der simulierten Mikrotubuli und des Effekts einer Tubulin-Verdünnung, d.h. der plötzlichen Verringerung der Konzentration freier Tubulin-Dimere um den Mikrotubulus, haben wir auch den Einfluss einer Kopplung der Hydrolyserate an die Mechanik untersucht. Die Folge dieser mechanischen Kopplung ist ein effektiv antivektorieller Hydrolyse-Mechanismus und die Existenz von GTP-Tubulin-Dimeren deutlich weiter entfernt vom Plusende des Mikrotubulus. 184 113 89 Thermodynamics of Heisenberg chains coupled to phonons The one-dimensional spin-1/2 Heisenberg model with nearest-neighbour interaction coupled to Einstein phonons is of interest for the understanding of materials which show the spin-Peierls phase transition. I examined this model by performing a finite-temperature quantum Monte Carlo simulation by using the very efficient loop algorithm. I studied in detail the magnetic susceptibility, the specific heat, the phonon occupation, the dimerization, and the spin-spin correlation function of this model for various spin-phonon couplings and phonon frequencies. In particular I gave evidence for a global effective spin-spin coupling and for the transition from a gapless to the massive phase by studying the finite-size behavior of the magnetic susceptibility. Das eindimensionale Spin-1/2-Heisenberg-Modell mit nächster Nachbar-Wechselwirkung, das an Einstein-Phononen gekoppelt ist, ist für das Verständnis von Materialien von Interesse, die den Spin-Peierls-Phasenübergang zeigen. Ich untersuchte dieses Modell anhand einer Quanten-Monte-Carlo-Simulation bei endlicher Temperatur unter Verwendung des sehr effizienten Schlaufen-Algorithmus. Im Detail untersuchte ich die magnetische Suszeptibilität, die spezifische Wärme, die Phonon-Besetzung, die Dimerisierung und die Spin-Spin-Korrelationsfunktion dieses Modells für verschiedene Spin-Phonon-Kopplungen und Phonon-Frequenzen. Insbesondere wies ich anhand des Verhaltens der magnetischen Suszeptibilität bei endlicher Systemgröße eine globale effektive Spin-Spin-Kopplung und einen Übergang von der gaplosen zur massiven Phase nach. 185 249 224 Structural studies on human RZZ and Cln3p The work presented in this thesis can be divided into two topics: 1. Molecular mechanism of chromosome segregation: Chromosome segregation is a central process in cell division. Hierarchical protein assemblies called kinetochores navigate this process. They monitor the synchronous separation of sister chromatids in higher eukaryotes by a pathway commonly referred to as spindle assembly checkpoint (SAC). The 800 kDa ROD-Zw10-Zwilch (RZZ) complex is a key player both in SAC and formation of kinetochore – microtubule attachments. This work highlights the first high-resolution structure of the RZZ complex determined by cryo-electron microscopy. The organization of constituent proteins in the complex has been understood by interweaving various biochemical methods. This study is essentially the first step in understanding the SAC from a structural perspective and enables to use hints from the structure in understanding the complex signaling process that drives cell division. 2. Molecular basis of the Batten disease: Ceroid – lipofuscinosis neuronal-3 (cln3) gene encodes a trans-membrane protein (Cln3p) mutations in which cause Batten’s disease. Batten disease is the most common of all neuronal ceroid-lipofuscinoses (NCL, genetically inherited neuronal disorders) characterized by loss of vision, myoclonic seizures, loss of cognitive function, motor dysfunction. This work reports the first expression and purification of human Cln3p from the baculovirus driven insect cell expression system. Initial biochemical characterization of the protein is also reported. Efforts to understand the protein function have been initialized and variety of techniques used to understand the structure of the protein. Die vorliegende Dissertation ist in zwei Thematiken unterteilt: 1.Molekulare Mechanismen der Segregation von Chromosomen: Die Segregation der Chromosomen ist ein zentraler Prozess während der Zellteilung. Dieser wird durch hierarchische Proteinkomplexe reguliert, die Kinetochore. Sie kontrollieren die synchrone Teilung der Schwesterchromatiden in höheren Eukaryoten in einem Prozess, der als spindle assembly checkpoint (SAC) bezeichnet wird. Der 800 kDa große ROD-Zw10-Zwilch (RZZ) Proteinkomplex besitzt eine Schlüsselfunktion in der Formierung des SAC sowie der Anheftung der Mikrotubuli an die Kinetochore. Diese Arbeit beschreibt die erste mittels Kryo-Elektronenmikroskopie bestimmte hochaufgelöste Struktur des RZZ Komplexes. Die Organisation der Bestandteile des Komplexes wurde durch Einbeziehung diverser biochemischer Methoden charakterisiert. Diese Arbeit stellt den ersten Schritt für ein strukturelles Verständnis des SAC dar und ermöglicht hierdurch ein besseres Verständnis der komplexen Signalwege, welche die Zellteilung steuern. 2. Molekulare Grundlagen der Batten-Krankheit: Das Ceroid-lipofuscinosis neuronal-3 (cln3) Gen kodiert für ein Transmembranprotein (Cln3p). Mutationen dieses Proteins bilden die Grundlage für die Batten-Krankheit, die am weitesten verbreitete aller neuronalen Ceroid-Lipofuscinosen (NCL). Diese vererbbaren neuronalen Krankheiten sind durch den Verlust der Sehkraft, myoklonische Anfälle, Verlust der geistigen Fähigkeiten sowie Störungen der motorischen Fertigkeiten charakterisiert. In dieser Arbeit wird die erste erfolgreiche Expression und Reinigung des humanen Cln3p mittels eines Baculovirus-Insektenzellen-Expressionssystems beschrieben. Initiale biochemische Charakterisierungen der posttranslationalen Modifikationen des Proteins wurden durchgeführt. Weiterhin wurden erste Versuche zum Aufklärung der Proteinfunktion und der Struktur des Proteins begonnen. 186 138 140 Die Hightech-Obsession Research and innovation policy focuses traditionally on high-technologies. The premise of this policy is that an intensified development of high-technologies is the indispensable prerequisite to secure the already reached level of economic wealth due to the intensified globalised competition. This concept of innovation policy will be critically reviewed in this paper. It will be shown that firstly the high-tech focus is not compatible with the traditional structures of the German economic and industrial structures, secondly, that the widely assumed strong connection between the development of high-technologies and economic growth is not at all clear and, thirdly that this policy focus neglects convincing findings of socio-scientific innovation research. Basis of the paper are findings stemming from an international research project on innovations in non-research intensive industries and conceptual findings and considerations from evolutionary and institutional approaches of innovation research. Der Fokus staatlicher Forschungs- und Innovationspolitik richtet sich traditionell auf Spitzentechnologien. Die Prämisse dieser Politik ist, dass sich im Zeitalter der Globalisierung und der sich verschärfenden Innovationskonkurrenz das hiesige Wohlstands-niveau allein über die forcierte Entwicklung von Technologien höchster und besonderer Qualität auf Dauer halten lässt. Dieser innovationspolitische Ansatz wird im vorliegenden Papier einem kritischen Resümee unterzogen. Es wird gezeigt, dass erstens der innovationspolitische Fokus auf Spitzentechnologie mit den gegebenen Wirtschafts- und Industriestrukturen in Deutschland kaum kompatibel ist, dass zweitens die häufig unterstellten eindeutigen Zusammenhänge zwischen einer forcierten Entwicklung von Spitzentechnologien und ökonomischen Wachstum nur schwer erkennbar sind und, dass drittens dieser innovationspolitische Ansatz hinter wesentliche Erkenntnisse der sozialwissenschaftlichen Innovationsforschung zurückfällt. Basis der Argumentation sind Ergebnisse und Überlegungen aus einem abgeschlossenen internationalen Forschungsprojekt über Innovationsverläufe im nicht-forschungsintensiven Industriesektor sowie konzeptionelle Überlegungen aus dem Kontext der evolutions- und institutionentheoretischen Innovationsforschung. 187 176 152 Unemployment and inequality in different capitalism models Arbeitslosigkeit und Ungleichheit in verschiedenen Kapitalismusmodellen The 'big trade off', described by Arthur Okun some thirty years ago, is back again. Equality or efficiency, or to put it differently again: modern highly developed economies and societies have to choose between the Scylla of income inequality or the Charybdis of unemployment. Furthermore, it looks like the continental European economies foremost Germany and France sided with more egalitarian ends accepting higher unemployment whilst the liberal economies such as the United States and the United Kingdom choose higher inequality for lower unemployment. In this paper it is argued, that the trade-off is not a supply-side necessity to maintain work effort in a situation of incomplete contracts, but is a politico-economic issue of particular interest groups to seek rents. However, unlike in Mancur Olson's seminal approach, it is not the trade unions which are forming distributional coalitions on the labour market but rather the meritocracy which is happy to misuse Keynesian-type demand management in order to advance their material interests by pursuing a 'Meritocratically Optimal Rate of Unemployment' (MORU). Der 'Big Trade Off', den Arthur Okun schon vor über dreißig Jahren formulierte, ist zurück. Ökonomische Effizienz und soziale Gleichheit erscheinen unvereinbar. Oder anders: Moderne Gesellschaften müssen sich zwischen der Scylla hoher Einkommensungleichheit oder der Charybdis von Arbeitslosigkeit entscheiden. Und es sieht so aus, als ob sich die kontinentaleuropäischen Länder wie Frankreich und Deutschland für höhere Einkommensgleichheit und Arbeitslosigkeit entschieden hätten, während die liberalen Ökonomien Großbritanniens und der USA sich für größere Einkommensungleichheit und einen höheren Beschäftigungsstand entschieden hätten. In dieser Arbeit wird argumentiert, dass der Trade Off keineswegs eine angebotspolitische Notwendigkeit zur Aufrechterhaltung der Leistungsbereitschaft der Arbeitnehmer ist, sondern politökonomisch gedeutet werden kann als das Ergebnis von Rent seeking'-Verhalten. Doch im Gegensatz zu dem bahnbrechenden Werk von Mancur Olson sind es nicht die Gewerkschaften, die eine Verteilungskoalition bilden, sondern vielmehr die Leistungselite, die mittels fehlgesteuertem Demand management eine meritokratisch-optimale Arbeitslosigkeit ansteuern, um ihre Verteilungsinteressen durchzusetzen. 188 116 111 Emotions in the workplace. Theoretical Backgrounds and Practical influence In today s working environment emotions are of significance in many ways. Positive feelings like pleasure and pride are related to the quality of the task itself and hence bear special importance when it comes to the future of work tasks in highly industrialized countries. But negative feelings like stress, fear or envy,have to be dealt with too. Those who are able to handle them in a competent way recover much faster from disappointments and excitements that inevitably occur at times when working. Furthermore, servicing people in our modern society largely means dealing with one s own as well as the clients emotions in a competent manner. Emotionen in der Arbeitswelt 189 119 115 Zu den offensichtlichen und versteckten Funktionen personenzentrierter Beratung in Organisationen Coaching und Supervision Unter den Begriffen der Supervision und des Coachings hat die personenzentrierte Beratung in Organisationen ein hohes Maß an Popularität erlangt. Das Ziel dieses Artikels ist es, unter Rückgriff auf die Systemtheorie, die Funktion von personenzentrierten Beratungsansätzen wie der Supervision und Coaching für die Organisation näher zu bestimmen. Es spricht einiges dafür, dass die Funktion von personenzentrierter Beratung weniger in der offensichtlichen, manifesten Funktion der Personalentwicklung liegt, denn in der versteckten, latenten Funktion der Isolierung von Konflikten in speziellen Interaktionszusammenhängen. Die Organisation erreicht durch Supervision und Coaching einen Schutz ihrer Strukturen, weil Konfl ikte interaktionell isoliert werden können und so für die Organisation weitgehend folgenlos bleiben. 190 244 233 Robuste lineare und nichtlineare Lösungsverfahren für die inkompressiblen Navier-Stokes-Gleichungen The subject of this thesis is the development of robust numerical methods for the solution of fluidmechanical problems for incompressible fluids.When resolving physical boundary layers, grids with long stretched elements are commonly used. These elements are the cause of problems concerning the discretization as well as the liner multigrid method. Furthermore, strongly jumping viscosity or density lead to problems with the numerical algorithms.Goal of the present work is the development of an effective numerical method, that is robust enoughto deal with these difficulties, but at the same time maintains the high speed of linear multigrid methods.The examinations have shown, that for this purpose, all numerical components have to be stabilized,especially the discretization, the grid transfer and the smoothing algorithms in the multigrid method.Special attention has been turned on the smoothing procedure, where a block-oriented 'Local-Presure-Schur-Complement' (LMPSC) method has been developed.The second central point of this thesis is the effective treatment of the nonlinearity in the equations.More often than not, classical Newton-methods are not applicable, since the resultinglinear systems can not be inverted, while the convergence behavior of classical fixed-point iterations quickly degenerates. The solution to overcome this is a kind of interpolation between the two methods.So, excellent (nonlinear) convergence properties can be achieved, while at the same time the resulting linear systems can be easily solved -using the LMPSC-smoother developed above. Finally, the extension of these methods to the Boussinesq-approximation is explained and the effectivity for this configuration is affirmed by various numerical tests. Gegenstand der vorliegenden Dissertation ist die Entwicklung von robusten numerischen Verfahren zur Lösung von strömungsmechanischen Problemen für inkompressible Fluide.Bei der Auflösung physikalischer Randschichten verwendet man häufig Gitter mit äußerst langgestreckten Zellen. Durch diese entstehen Probleme bei der Diskretisierung sowie bei der Verwendung von linearen Mehrgitterverfahren. Weiterhin bereiten Viskositäten oder Dichten, die starke Sprünge aufweisen, den numerischen Verfahren Probleme.Ziel der vorliegenden Arbeit ist die Entwicklung eines numerischen Verfahrens, das robust genug ist, um mit diesen Schwierigkeiten fertig zu werden, und dabei nicht auf den Vorteil der hohen Geschwindigkeit linearer Mehrgittermethoden verzichtet. Die Untersuchungen haben gezeigt, daß dafür von der Diskretisierung über den Gittertransfer bis hin zum verwendeten Glättungsverfahren nahezu alle numerischen Komponenten stabilisiert werden müssen. Ein besonderes Augenmerk liegt dabei auf dem Glätter im Mehrgitteralgorithmus, wofür ein geblocktes 'Locales-Druck-Schur-Komplement Verfahren' (LMPSC-Local Multilevel Pressure Schurcomplement)entwickelt worden ist.Ein zweiter Schwerpunkt der Arbeit ist die effektive numerische Behandlung der Nichtlinearität in den Gleichungen. Der Einsatz des klassischen Newton-Verfahrens scheitert häufig daran, daß die entstehende linearisierten Gleichungssysteme nicht mehr numerisch lösbar sind, während das Konvergenzverhalten einfacher Fixpunktiterationen sehr schnell degeneriert. Die hier gefundene Lösung besteht aus einer Art Interpolation der beiden Verfahren, bei der hervorragende (nichtlineare) Konvergenzeigenschaften erzielt werden, die entstehendenlinearen Gleichungssysteme -unter Verwendung des LMPSC-Glätters- jedoch einfach lösbar bleiben.Schließlich wird die Erweiterung der Methoden auf die Boussinesq-Approximation erläutert, undderen Effektivität auch für diese Problemstellungen mit numerischen Tests belegt. 191 121 87 Teleservice in the machine tool industry. Paradoxes of innovation and negation of tacit knowledge The focus of public discussions and scientific research projects on Teleservice are usually its technical, legal or economic aspects. The human factor and questions of work organization and qualification therefore play a subordinate role. One example is that the traditionally high value placed on experiential knowledge in the field of support and service in carrying out technical tasks is often neglected in the reorganization-process of Teleservice implementation. This article presents recent results of a study in the German machine tool industry, which identifies paradoxes of innovation and barriers for Teleservice implementation in production and maintenance, and on this background draws conclusions and shows perspectives for future research. Teleservice im Werkzeugmaschinenbau 192 161 115 Investigation of the properties of Acyl protein thioesterases and their role in Ras depalmitoylation It was shown that inhibition of the activity of Acyl Protein Thioesterase (APT) proteins by palmostatin B could change the localization of the palmitoylated oncogene Ras and lead to a down-regulation of Ras signaling. Besides this particular activity of APT several other protein targets of APT were described, some of them as specific substrates for one of the two isoforms. Furthermore, APT activity was also linked to non-protein substrates like (lyso-)phospholipids and prostaglandin glycerol esters. Still, the real physiological function of the conserved and ubiquitously expressed APT proteins remains elusive. This thesis provides new insights into possible physiological roles of APT and its isoforms by focusing on the interaction of different substrates, ligands and inhibitors with APT proteins. The results help to answer the question what kind of substrates APT prefers, how substrate specificity is achieved and how APTs might have evolved in the different eukaryotic species. Es konnte gezeigt werden, dass die Inhibition des Proteins Acyl Protein Thioesterase (APT) die Lokalisierung von palmitoylierten Ras Proteinen derart verändern kann, dass eine Reduzierung der onkogenen Ras Aktivität beobachtet wird. Die genaue physiologische Rolle von APT ist allerdings weiterhin unklar, da sowohl weitere palmitoylierte Proteine, als auch (Lyso-) Phospholipide und Prostaglandin Glycerin Ester als Substrate von APT beschrieben wurden. Die hier vorliegende Arbeit liefert, durch Untersuchung der Interaktionen verschiedener Substrate, Liganden und Inhibitoren mit APT, neue Erkenntnisse bezüglich möglicher zellulärer Aufgaben von APT. Die gewonnenen Resultate helfen zu bestimmen, welche Substrate von APT bevorzugt werden, wie eine Substratspezifität erreicht wird und wie sich APT im Laufe der Evolution in verschiedenen eukaryotischen Spezies entwickelt hat. 193 173 179 Parallel text index construction The focus of this dissertation is the parallel construction of text indices. Text indices provide additional information about a text that allow to answer queries faster. Full-text indices for example are used to efficiently answer phrase queries, i.e., if and where a phrase occurs in a text. The research in this dissertation is focused on but not limited to parallel construction algorithms for text indices in both shared and distributed memory. In the first part, we look at wavelet trees: a compact index that generalizes rank and select queries from binary alphabets to alphabets of arbitrary size. In the second part of this dissertation, we consider the suffix array---one of the most researched text indices.The suffix array of a text contains the starting positions of the text's lexicographically sorted suffixes, i.e., we want to sort all its suffixes. Finally, we use the distributed suffix arrays (and LCP arrays) to compute distributed Patricia tries. This allows us to answer different phrase queries more efficiently than using only the suffix array. In dieser Dissertation betrachten wir die parallele Konstruktion von Text-Indizes. Text-Indizes stellen Zusatzinformationen über Texte bereit, die Anfragen hinsichtlich dieser Texte beschleunigen können. Ein Beispiel hierfür sind Volltext-Indizes, welche für eine effiziente Phrasensuche genutzt werden, also etwa für die Frage, ob eine Phrase in einem Text vorkommt oder nicht. Diese Dissertation befasst sich hauptsächlich, aber nicht ausschließlich mit der parallelen Konstruktion von Text-Indizes im geteilten und verteilten Speicher. Im ersten Teil der Dissertation betrachten wir Wavelet-Trees. Dabei handelt es sich um kompakte Indizes, welche Rank- und Select-Anfragen von binären Alphabeten auf Alphabete beliebiger Größe verallgemeinern. Im zweiten Teil der Dissertation betrachten wir das Suffix-Array, den am besten erforschten Text-Index überhaupt. Das Suffix-Array enthält die Startpositionen aller lexikografisch sortierten Suffixe eines Textes, d.h., wir möchten alle Suffixe eines Textes sortieren. Oft wird das Suffix-Array um das Longest-Common-Prefix-Array (LCP-Array) erweitert. Das LCP-Array enthält die Länge der längsten gemeinsamen Präfixe zweier lexikografisch konsekutiven Suffixe. Abschließend nutzen wir verteilte Suffix- und LCP-Arrays, um den Distributed-Patricia-Trie zu konstruieren. Dieser erlaubt es uns, verschiedene Phrase-Anfragen effizienter zu beantworten, als wenn wir nur das Suffix-Array nutzen. 194 182 175 Which developmental relationships between language, mathematics and working memory modulate the influence of linguistic competences on mathematical learning in (pre-)school age? Welche Entwicklungszusammenhänge zwischen Sprache, Mathematik und Arbeitsgedächtnis modulieren den Einfluss sprachlicher Kompetenzen auf mathematisches Lernen im (Vor‑)Schulalter? The developmental relationship between linguistic and mathematical skills is highly complex and not yet sufficiently understood. We used competence data of linguistically typical developed children from the German National Educational Panel Study (NEPS) to further investigate interdependent influences of linguistic skills (grammar and vocabulary) as well as cognitive skills (central executive, phonological loop, indirect measures of working memory) and mathematical learning in the age range of 4 to 8 years (n = 354). Results reveal that over time especially grammatical skills impact mathematical learning. We also found evidence that language can play different roles within the interplay between cognitive skills and mathematical competences: In preschool age language represents a precondition for the performance of individual cognitive skills (central executive, phonological loop) that are closely related to mathematical learning. Language also mediates the influence of cognitive skills on mathematical learning during both, preschool and elementary school age. In addition, linguistic skills are a prerequisite for storing mathematical information particularly during preschool development. Der Entwicklungszusammenhang zwischen sprachlichen und mathematischen Fähigkeiten ist hoch komplex und noch nicht gut verstanden. Deshalb wurden Kompetenzdaten von sprachlich unauffälligen Kindern aus dem Nationalen Bildungspanel (NEPS) genutzt, um interdependente Einflüsse von sprachlichen Kompetenzen (Grammatik und Wortschatz) sowie kognitiven Fähigkeiten (zentrale Exekutive, phonologische Schleife, indirekte Maße des Arbeitsgedächtnisses) und mathematischem Lernen in der Altersspanne zwischen 4 und 8 Jahren zu untersuchen (n = 354). Dabei zeigte sich, dass langfristig insbesondere die grammatikalischen Fähigkeiten das mathematische Lernen beeinflussen. Zudem wurde deutlich, dass Sprache innerhalb des Zusammenspiels zwischen kognitiven Fähigkeiten und mathematischen Kompetenzen unterschiedliche Funktionen einnehmen kann: So stellt sie einerseits im Vorschulalter eine Voraussetzung für die Leistungsfähigkeit einzelner mit mathematischen Kompetenzen in Zusammenhang stehender kognitiver Fähigkeiten (zentrale Exekutive, phonologische Schleife) dar. Andererseits mediiert Sprache sowohl im Vorschul- wie auch im Grundschulalter den Einfluss der kognitiven Fähigkeiten auf das mathematische Lernen. Zudem weisen die Ergebnisse darauf hin, dass sprachliche Kompetenzen insbesondere im Vorschulalter eine Voraussetzung zur Speicherung mathematischer Informationen bilden. 195 236 209 Zur Existenz und konformen Invarianz der Robinschen Funktion The Robin function in a domain on the Riemann Sphere that contains infinity is the fundamental solution of a mixed boundary value problem for the Laplace operator with a logarithmic singularity at infinity. Dirichlet conditions are given on one part of the boundary and Neumann conditions on the other part. With the help of the Robin function, the Robin capacity of the Dirichlet-boundary is defined similar to the logarithmic capacity of a compact set. Recent research of P. Duren and M. Schiffer has revealed, that the Robin capacity of the Dirichlet boundary is exactly the minimum of the logarithmic capacity over all normalized conformal mappings of the given domain. In this thesis, a new existence proof for the Robin function is presented. It works under rather weak assumptions on the given domain. Moreover the constructive nature of this proof provides a representation formula of the Robin function and thus its numeric determination. After that, the Robin function is used for the construction of the conformal mapping of a given, simply connected domain with a marked closed subset on its boundary on a domain of a certain shape. In the last part of this thesis, the connection between the Robin capacity and other well known quantities from geometric function theory is studied. These quantities are, for instance, harmonic measure, extremal distance and conformal module. In two situations formulas for the determination of the Robin capacity are derived. Die Robinsche Funktion eines Gebietes auf der Riemannschen Zahlenkugel, das den Punkt Unendlich enthält, ist die Fundamentallösung einer gemischten potentialtheoretischen Randwertaufgabe mit Singularität in Unendlich. Dabei werden auf einem Teil des Randes Dirichlet- und auf dem verbleibenden Teil Neumann-Bedingungen gefordert. Analog zur logarithmischen Kapazität eines Kompaktums wird die Robinsche Kapazität des Dirichlet-Randes mit Hilfe der Robinschen Funktion erklärt. Wie P. Duren und M. Schiffer nachwiesen, beschreibt die Robinsche Kapazität des Dirichlet-Randes die minimale Verzerrung seiner logarithmischen Kapazität bei Abbildung des gegebenen Gebietes mit geeignet normierten konformen Abbildungen. In der vorliegenden Arbeit wird ein neuer Beweis für die Existenz der Robinschen Funktion unter recht allgemeinen Voraussetzungen erbracht. Die verwendete Beweismethode ist konstruktiv und ermöglicht Darstellung sowie numerische Berechnung der Robinschen Funktion in vielen Fällen. Anschließend wird die Konstruktion der konformen Abbildung eines einfach zusammenhängenden Gebietes, auf dessen Rand eine abgeschlossene Teilmenge ausgezeichnet ist, auf ein gewisses Normalgebiet mit Hilfe der Robinschen Funktion realisiert. Der letzte Teil der Arbeit dient der Untersuchung des Zusammenhanges von Robinscher Kapazität und anderen, bekannten Größen der geometrischen Funktionentheorie, wie z.B. dem harmonischen Maß, der extremalen Distanz und dem konformen Modul. Insbesondere werden in zwei Fällen Formeln angegeben, die die Bestimmung der Robinschen Kapazität aus diesen Größen ermöglichen. 196 320 316 Effiziente Kapazitätsplanung durch dynamische Erweiterung einer lokalen Ressourcenumgebung um Grid- und Cloud-Ressourcen: algorithmische und technische Betrachtungen The increasing complexity of scientific problems and industrial challenges leads to significant demands on computing infrastructures. Today, many scientific institutions and also most companies are still hosting their own computing infrastructures as commodity clusters or parallel machines to handle the upcoming load. Usually, these infrastructures are shared between many users with various applications. Caused by new problems and a fluctuating user community, changing load leads to phases with overloaded resources and undesired delays in job calculation on the first hand, and to idle phases with inefficent use of the available performance on the other hand. Instead of adapting the physical resources to the varying load, a resource operator is able to make use of algorithms and technologies of Grid- and Cloud- Computing to dynamically exchange load with delegation partners or a public cloud. This work investigates algorithmic approaches for the dynamic load exchange between autonomous resource environments in Computational Grids. The bilateral exchange between equitable partners is optimized using computational intelligence methods and subsequently is evaluated concerning improvements in service quality for the respective user communities. Usually, in Computational Grids the participating resource centers do not charge accepted workload. However, a cloud provider does charge unilateral load exchange. Thus, from the delegating centers point of view the charge represent an additional objective. This leads to a Multi-Objective Optimization Problem with the contradicting objectives of minimizing charge and maximizing service quality. In addition to common offline optimization algorithms, we introduce an adaptive reinforcement learning based policy to establish a beneficial relation of charge and gain for a considered resource centre. All presented algorithms are evaluated with real workload traces and examined regarding their robustness on foreign workload data or different local scheduling systems. The achieved results motivate the usage of dynamic load exchange algorithms for the improvement in service quality. Further, they serve as alternative to an extension of physical resources, which would be unfavorable from the economical and ecological perspective. Mit der Komplexität der Probleme aus Forschung und Industrie steigen auch die Anforderungen an Rechnerinfrastrukturen zur ihrer effizienten Berechnung. Dabei greifen viele wissenschaftliche Einrichtungen und Unternehmen bisher noch auf den Betrieb eigener Rechnerinfrastruktur in Form von Commodity-Clustern bzw. Parallelrechnern zurück, deren Zugriff oftmals unter einer Vielzahl von Nutzern mit unterschiedlichen Anwendungen geteilt wird. Die aufgrund neuer Problemstellungen und der fluktuierenden Nutzergemeinschaft schwankende Rechenlast führt jedoch dazu, dass in Phasen mit Überlast eine unerwünschte Verzögerung der Rechenjobs stattfindet, während das Leistungspotential der Ressourcen in Phasen mit Unterlast nicht voll ausgeschöpft wird. Anstatt seine Ressourcen physisch den Lastschwankungen anzupassen, kann ein Ressourcenbetreiber auf Algorithmen und Technologien des Grid- und Cloud- Computings zurückgreifen, um einen dynamischen Lastaustausch mit einem Delegationspartner bzw. in eine öffentliche Cloud vorzunehmen. Diese Arbeit untersucht algorithmische Lösungen für den dynamischen Lastaustausch zwischen autonomen Ressourcenumgebungen in Computational Grids. Der wechselseitige Lastaustausch zwischen gleichberechtigten Partnern wird dabei hinsichtlich einer verbesserten Servicequalität für ihre jeweiligen Nutzergemeinschaften evaluiert und mit Methoden der Computational Intelligence optimiert. Während für den beidseitigen Lastaustausch innerhalb eines Computational Grids in der Regel kein (monetärer) Ausgleich verlangt wird, ist dies bei einseitiger Auslagerung von Last in eine Cloud stets der Fall. Die durch die Auslagerung entstehenden Kosten stellen neben der Steigerung der Servicequalität einen weiteren Optimierungsfaktor dar, welcher im Rahmen eines mehrkriteriellen Optimierungsproblems aus Kosten und Steigerung der Servicequalität untersucht wird. Neben Offline-Optimierungsverfahren wird für diesen Auslagerungsansatz eine adaptive Online-Lernstrategie auf Basis von Reinforcement Learning umgesetzt, mit dem Ziel ein gutes Kosten-Nutzen-Verhältnis für das auslagernde Ressourcenzentrum zu erreichen. Alle vorgestellten Algorithmen werden dabei mit realen Lastaufzeichnungen und in Bezug auf ihre Robustheit bei Übertragung auf Änderungen der Eingabedaten sowie des lokalen Scheduling-Systems untersucht. Die gewonnenen Erkenntnisse motivieren den Einsatz dynamischer Lastverteilungsalgorithmen zur Steigerung der Servicequalität als Alternative zu einer aus ökonomischen und ökologischen Gründen unvorteilhaften Erweiterung der physischen Ressourcen. 197 823 741 Synthesis of glycopeptides for exploration of mucin‐type‐threonine and HexNAc‐tyrosine modifications Protein O-glycosylation is a structurally and biologically versatile modification. The mucin-type O- glycosylation on extracellular mucin proteins is for instance involved in cell-cell and cell-matrix interactions, and play key roles in airway inflammations of COPD, asthma and cystic fibrosis patients by serving as binding receptors for virulence factors of airway disease-related pathogens (bacteria and viruses). Insights into molecular details in the binding specificities of virulence factors like adhesion proteins (lectins) or sialidases would support the development of glycomimetic antiadhesive drugs or enzyme inhibitors to suppress infections. Moreover, adenocarcinoma cells (from for instance breast, colon, lung and ovary cancer) have been found to exhibit altered mucin glycosylation and expression levels, which has been related to tumor progression and metastasis. MUC1-based vaccine constructs have been identified as promising for induction of a tumor-directed immune response, which in consequence might eradicate the tumor burden. However, without a structurally defined MUC1 glycopeptide library, a quality control and a precise epitope mapping of the induced antibodies is not possible. This work focuses on the synthesis of a well-defined peptide library (including extended core 2 and core 4 glycosylation) for application in microarray experiments to map lectin/glycopeptide and antibody/glycopeptide binding specificities. The gained information will aid to tackle the above- described challenges in airway disease and cancer progression. Further, this work contributed in the development of a new oxonium ion-based mass-spectrometric methodology for improved structural characterization of glycopeptides. O-glycosylation is commonly found on serine (Ser) or threonine (Thr), but recent identifications suggest that similar modifications also occur on tyrosine (Tyr). These modifications are initiated by addition of a HexNAc (GalNAc or GlcNAc) monosaccharide residue to the respective amino acid. A major challenge for identification of the recently discovered HexNAc-Tyr modifications was to distinguish the structural similar isomers αGalNAc-, αGlcNAc- and βGlcNAc-Tyr. Assignments of the glycan structures were only possible by general knowledge of biosynthetic pathways or being based on lectin glycan-binding preferences when applied in lectin-affinity enrichment of protein-digested peptide fragments. However, lectin binding-preferences of HexNAc-Tyr have not been explored and lectins are not always capable to discriminate between different glycan isomers. In previous glycoproteomic studies complex Tyr glycosylation was assumed as mucin type αGalNAc-Tyr modification, based on knowledge of lectin specificity to Ser/Thr glycopeptides and the fact that mucin-type glycopeptides are generally extended with additional glycans. The αGlcNAc-Tyr was found on host GTPases, a modification caused by intracellular infections and was assigned by enzymatic in vitro studies and NMR structural characterization. Further, in an extensive glycoproteomic study several HexNAc-Tyr modifications were found on mitochondrial proteins and some of the identified sites are also known phosphorylation sites. Therefore, the identified HexNAc-Tyr modifications were likely to be βGlcNAc-Tyr (although to date this modification is still not verified). In order to enable identification of HexNAc-Tyr as a possible modification by glycoproteomic analysis, lectins commonly used for glycopeptide affinity enrichment were evaluated towards binding recognition of HexNAc-Tyr glycopeptides compared to Ser/Thr analogs. To this extent, a versatile library of HexNAc model glycopeptides was synthesized, providing the basis for the lectin binding studies. The contribution of structural elements towards recognition by lectins commonly used for glycopeptide enrichment (Vicia villosa agglutinin - VVA, Wheat germ agglutinin - WGA and Griffonia simplicifolia lectin II - GSL II) was tested by using glycopeptide microarrays. The binding recognition influence of glycan (αGalNAc/αGlcNAc/βGlcNAc), acceptor amino acid (Tyr/Ser/Thr) and mono vs divalent glycan presentation was evaluated. The WGA and GSL II lectins showed a clear preference for Tyr glycopeptides over Ser/Thr. In contrast no clear Tyr preference was found for VVA. The WGA lectin showed strong binding to both GlcNAc- and GalNAc-Tyr glycopeptides and could not be considered for structural assignment of HexNAc-Tyr glycopeptides. In contrast VVA was highly specific for αGalNAc-containing glycopeptides and GSL II recognized both αGlcNAc- and βGlcNAc modified peptides. In analysis of WGA the impact of divalent glycan presentation was evaluated and found to be dependent on the peptide spacing between the glycans. A distance of 2-5 amino acids resulted in a generally enhanced recognition. Taken together, these results will enable a more reliable application of lectins for HexNAc-Tyr glycopeptide enrichment. Further, mass spectrometric oxonium ion fragmentation was elucidated for applicability towards HexNAc-Tyr glycopeptide identification. The methodology was found to be fully applicable for discrimination of GalNAc vs GlcNAc epimers, but not for assignment of the anomeric configuration. The knowledge about lectin affinities in combination with the oxonium-based glycan identification will enable large-scale glycoproteomic studies taking account of Tyr O-glycosylation, which eventually might help to clarify, whether βGlcNAc-Tyr is actually an existing modification. However, the ultimate proof of existence of the modification would be the observation of Tyr-specificity by the βGlcNAc biosynthetic enzymes O-GlcNAc transferase (OGT) and O-GlcNAcase (OGA). Accordingly, selected peptides and glycopeptides were used as substrate candidates for OGT and OGA. Thereby, OGA showed a clear preference for βGlcNAc-Tyr substrates over Ser/Thr analogs. The OGT substrate studies were inconclusive and needs further evaluation. Die Protein O-Glykosylierung ist eine biologisch sowie strukturell vielseitige Modifikation. Die mucinartige O-Glykosylierung an extrazellulären Mucinproteinen ist z.B. involviert in Zell-Zell- sowie Zell-Matrix- Interaktionen und spielt eine Schlüsselrolle bei Atemwegsinfektionen von COPD-, Mukoviszidose- und Asthmapatienten. Dabei dienen die O-Glykane als Rezeptoren für Virulenzfaktoren von atemwegserkrankungsrelevanten Pathogenen (Bakterien und Viren). Einblicke in die molekularen Details der Bindungsspezifitäten von Virulenzfaktoren wie Adhäsionsproteine (Lektine) oder Sialidasen würde die Entwicklung von glykomimetischen Antiadhäsionsmedikamenten und Enzyminhibitoren zur Infektionsbekämpfung unterstützen. Zudem wurde gezeigt, dass Adenokarzinomzellen (von z.B. Brust-, Darm-, Lungen- und Gebärmutterkrebs) veränderte Mucinglykosylierung sowie -expression aufweisen, was wiederum mit Tumorwachstum und Metastasierung in Verbindung gebracht wird. MUC1-basierte Vakzinkonstrukte gelten als vielversprechend, um eine tumorgerichtete Immunantwort zu induzieren, welche die Tumorlast schließlich beseitigen könnte. Ohne eine Bibliothek bestehend aus MUC1- Gklykopeptiden definierter Struktur jedoch, ist eine Qualitätskontrolle sowie eine präzise Aufklärung der induzierten Antikörper nicht möglich. Diese Arbeit konzentriert sich auf die Synthese einer wohldefinierten Peptidbibliothek (mit verlängerter Core 2- und Core 4-Glykosylierung) zur Anwendung in Microarrayexperimenten um schließlich Lektin/Glykopeptid- und Antikörper/Glykopeptidspezifitäten aufzuklären. Die so gewonnenen Informationen werden dabei helfen, die oben genannten Herausforderungen bzgl. Atemwegserkrankungs- und Krebsverlauf lösen. Darüber hinaus trug diese Arbeit zu Entwicklung einer neuen oxoniumionenbasierten, massenspektrometrischen Methode zur verbesserten Charakterisierung von Glykopeptidstrukturen bei. O-Glykosyierung wird üblicherweise auf Serin (Ser) oder Threonin (Thr) gefunden, jedoch zeigten jüngste Identifikationen, dass ähnliche Modifikationen auch auf Tyrosin (Tyr) stattfinden können. Diese Modifikationen werden durch Einführung einer HexNAc (GalNAc oder GlcNAc)-Gruppe an die jeweilige Aminosäure initiiert. Eine große Herausforderung war es bei den kürzlich entdeckten HexNAc-Tyrosin- Modifikationen zwischen den strukturell ähnlichen Isomeren αGalNAc-, αGlcNAc- und βGlcNAc-Tyr zu unterscheiden. Eine Zuordnung der Glykanstrukturen war nur möglich durch das generelle Wissen um Biosynthesewege oder beruhend auf bekannten Lektin/Glykan-Bindungspräferenzen zur Lektinaffinitätsanreicherung von Glykopeptidfragmenten. Jedoch sind die Lektinbindungspräferenzen ggü. HexNAc-Tyr bislang unerforscht. Zudem sind Lektine nicht immer in der Lage zwischen verschiedenen Glykanisomeren zu unterscheiden. In bisherigen Studien zum Glykoproteom wurde komplexe Tyr- Glykosylierung als mucinartige αGalNAc-Tyr-Modifikation betrachtet, basierend auf dem Wissen um Lektinspezifitäten ggü. Ser/Thr-Glykopeptiden und der Tatsache, dass mucinartige Glykopeptide generell um weitere Glykane verlängert vorliegen. αGlcNAc-Tyr, eine Modifikation, welche durch intrazelluläre Infektionen verursacht wird, wurde an Host-GTPasen gefunden. Eine Glykanzuordnung fand mittels enzymatischen In-Vitro-Studien sowie NMR-basierten Strukturbestimmungen statt. Weiter wurden im Rahmen einer umfangreichen Glykoproteom-Studie verschiedene HexNAc-Tyr-Modifikationen an mitochondriellen Proteinen gefunden, wobei einige der identifizierten Glykosylierungsstellen gleichzeitig bekannte Phosphorylierungsstellen darstellen. Daher handelt es sich bei diesen HexNAc-Tyr-Modifikationen wahrscheinlich um βGlcNAc-Tyr (obwohl diese Modifikation bis dato nicht verifiziert werden konnte). Um eine Identifikation von HexNAc-Tyr als mögliche Modifikation durch Glykoproteomanalysen zu ermöglichen, wurden Lektine, welche üblicherweise zur Glykopeptidaffinitätsanreicherung verwendet werden, hinsichtlich ihrer Bindungserkennung von HexNAc-Tyr und im Vergleich zu dessen Ser/Thr-Analoga, untersucht. Zu diesem Zweck wurde eine vielseitige Bibliothek bestehend aus HexNAc-Modellglykopeptiden synthetisiert, welche die Grundlage für Lektinbindungsstudien bildet. Der Beitrag von Glykopeptidstrukturelementen zur Erkennung durch üblicherweise zur Glykopeptidanreicherung verwendete Lektine (Vicia Villosa Agglutinin - VVA, Wheat Germ Agglutinin – WGA und Griffonia Simplicifolia Lectin II – GSL II) wurde durch Einsatz von Glykopeptidmicroarrays getestet. Dabei wurde der Einfluss von Glykan (αGalNAc/αGlcNAc/βGlcNAc), Akzeptoraminosäure (Tyr/Ser/Thr) sowie die Art der Glykanpräsentation (mono- vs divalent) untersucht. WGA und GSL II zeigten eine deutlichen Präferenz für Tyr-Glykopeptide ggü. Ser/Thr. Demgegenüber wurde keine solche Tyr-Präferenz für VVA gefunden. Das WGA-Lektin zeigte eine starke Bindung sowohl an GlcNAc-Tyr- als auch an GalNAc-Tyr-Glykopeptide und kommt somit für eine Strukturzuordnung von HexNAc-Tyr nicht in Betracht. Im Gegensatz dazu wurde für VVA eine hohe Spezifität für ausschließlich αGalNAc-Glykopeptide gefunden. GSL II erkannte sowohl αGlcNAc- als auch βGlcNAc-modifizierte Peptide. Für WGA wurde der Einfluss von divalenter Glykanpräsentation untersucht, wobei sich eine Abhängigkeit von der Peptidlänge zwischen den beiden Glykanen ergab. Generell resultierte eine Distanz von 2-5 Aminosäuren in erhöhter Glykopeptiderkennung. Zusammengenommen ermöglichen diese Ergebnisse eine verlässlichere Verwendung von Lektinen zum Zwecke der HexNAc-Tyr-Glykopeptidanreicherung. Des weiteren wurde die massenspektrometrische Oxoniumionenfragmentierung hinsichtlich ihrer Anwendbarkeit zur HexNAc-Tyr-Glykopeptididentifikation untersucht. Es zeigte sich, dass die Methode voll Anwendbar ist zur Unterscheidung von GalNAc vs GlcNAc, jedoch nicht zur Zuordnung der jeweiligen anomerischen Konfiguration. Das hier generierte Wissen über Lektinaffinitäten in Kombination mit der oxoniumionenbasierten Glykanidentifikation wird großangelegte Glykoproteomstudien ermöglichen, in welchen die Tyr-O-Glykosylierung mit in Betracht gezogen wird. Dies könnte schließlich zur Klärung der Frage beitragen, ob βGlcNAc-Tyr eine tatsächlich existierende Modifikation ist. Der ultimative Beweis für dessen Existenz wäre jedoch die Beobachtung einer Tyr-Spezifität ausgehend von den βGlcNAc-Biosyntheseenzymen O-GlcNAc-Transferase (OGT) und O-GlcNAcase (OGA). Entsprechende, in dieser Arbeit durchgeführte Inkubationen von Glykopeptid-Substratkandidaten mit OGA ergaben eine deutliche OGA-Präferenz ggü. βGlcNAc-Tyr-Substraten im Vergleich zu Ser/Thr-Analoga. Entsprechende Inkubationen mit OGT verliefen bislang ergebnislos und benötigen weitere Untersuchungen. 198 220 174 Enlarged Higgs sectors as a window into flavor symmetric theories beyond the standard model of particle physics The flavor puzzle refers to the existence of three generations of quarks and leptons with identical gauge couplings but widely hierarchical masses. These generations mix among each other, but with very different mixing matrices in the quark and lepton sectors respectively. Flavor models used to address these issues often lack unique predictions and testability. Consequently, in this thesis we investigate phenomenological models that aim to solve parts of the flavor puzzle, but are testable using collider experiments. A neutrino mixing model based on the symmetry S3 is analyzed which contains a Higgs sector potentially testable at the LHC through exotic decays. We also propose a model based on Δ(27), which for the first time provides a calculable, geometrical phase stable up to all orders as the only source of CP violation. The model can reproduce all CKM data while having a symmetry breaking sector testable at the LHC. Finally—as an alternative to discrete symmetries—using a class of generic seesaw models we investigate the consequences of a scenario in which all the neutrino mixing is generated in a heavy right-handed Majorana sector. We show that even in the generic class of models considered, common experimental predictions such as a normal neutrino mass hierarchy emerge. Das Flavorproblem beschreibt drei Generationen von Quarks und Leptonen, die zwar identische Eichkopplungen aber stark hierarchische Massen aufweisen. Diese Generationen mischen untereinander, allerdings sind die Strukturen der Mischungsmatrizen in den Quark- und Leptonsektoren sehr verschieden. Flavormodelle, die diese Probleme zu beheben versuchen, haben oft wenig eindeutige Vorhersagen und sind kaum testbar. Aus diesem Grund untersuchen wir phänomenologische Flavormodelle, die mit Beschleunigerexperimenten überprüfbar sind. Ein Neutrinomischungsmodell auf Basis der Gruppe S3 wird vorgestellt, dessen Higgs-Sektor am LHC mithilfe von exotischen Zerfällen untersucht werden kann. Weiterhin postulieren wir ein Modell auf Basis der Gruppe Δ(27), das erstmalig eine berechenbare, geometrische Phase enthält, die in allen Ordnungen stabil bleibt, und die die einzige Quelle der CP-Verletzung darstellt. Das Modell reproduziert die CKM-Daten vollständig, wobei der symmetriebrechende Sektor überprüfbare LHC-Signale enthält. Als eine Alternative zu diskreten Symmetrien untersuchen wir mithilfe eines generischen Seesaw-Modells die Konsequenzen eines Szenarios, in dem die gesamte Neutrinomischung im schweren rechtshändigen Majorana-Sektor des Modells generiert wird. Wir zeigen, dass selbst in dieser generischen Klasse von Modellen experimentelle Vorhersagen wie eine normale Neutrinohierarchie enthalten sind. 199 54 39 Robust Trend Estimation for AR(1) Disturbances We discuss the robust estimation of a linear trend if the noise follows an autoregressive process of first order. We find the ordinary repeated median to perform well except for negative correlations. In this case it can be improved by a Prais-Winsten transformation using a robust autocorrelation estimator. Wir behandeln die robuste Schätzung eines linearen Trends bei autoregressiven Fehlern erster Ordnung. Die Repeated Median Regression zeigt ein gutes Verhalten bei positiven Korrelationen. Bei negativen Korrelationen ist eine Verbesserung durch eine Prais-Winsten Transformation mittels eines robusten Korrelationsschätzers möglich. 200 344 270 Search for flavour-changing neutral currents in processes with a single top quark in association with a photon using a deep neural network at the ATLAS experiment at √s = 13TeV In this thesis, a search for flavour-changing neutral currents in processes involving a singly produced top quark and a photon is presented. In this search, proton-proton collision data are used which were collected by the ATLAS experiment at the LHC and correspond to an integrated luminosity of 81 fb⁻¹. The top quark is assumed to decay into a b quark and a W boson, which is supposed to decay leptonically. Events are selected whose final state contains exactly one photon, one charged lepton, one b-tagged jet and a certain magnitude of missing transverse momentum. The background contributions, that arise from events with either an electron or a jet misidentified as photon, are estimated using data-driven techniques. The signal is modelled in an effective field theory. The signal coupling is assumed to be either left- or right-handed and to involve either an up quark or a charm quark. Assuming only one of these signal couplings being present at a time, a discriminant is constructed using a deep neural network which classifies events into signal and background candidates. A profile likelihood fit is performed to improve the background prediction and to estimate the signal strength. Since no signal contribution is observed in data and the data are found to be consistent with the background expectation, upper exclusion limits are set on the branching ratios B(t→uγ) and B(t→cγ). The observed limits at a confidence level of 95 % on the branching ratio are B(t→uγ, left-handed) < 2.8 10⁻⁵, B(t→uγ, right-handed) < 6.1 10⁻⁵, B(t→cγ, left-handed) < 22 10⁻⁵ and B(t→cγ, right-handed) < 18 10⁻⁵. These limits are interpreted as limits on the cross section for the production of a top quark and a photon via a flavour-changing neutral current, and as limits on the absolute value of the sum of the Wilson coefficients CuBij* and CuWij* for the left-handed and CuBij and CuWij for the right-handed couplings. In dieser Disseration wird die Suche nach quarkflavourverändernden neutralen Strömen vorgestellt, die in Prozessen mit einem einzeln produzierten Top-Quark und einem Photon auftreten. Die untersuchten Daten wurden am ATLAS-Detektor am LHC in Proton-Proton Kollisionen aufgezeichnet und entsprechen einer integrierten Luminosität von 81 fb⁻¹. Es wird angenommen, dass das Top-Quark in ein b-Quark und ein W-Boson zerfällt, das wiederum leptonisch zerfällt. Es werden Ereignisse selektiert, deren Endzustand aus genau einem Photon, einem geladenen Lepton, einem b-tagged Jet und einem Mindestbetrag an fehlendem transversalen Impuls besteht. Die Untergrundbeiträge von Ereignissen, in deren Endzustand entweder ein Elektron oder ein Jet fälschlicherweise als Photon identifiziert wurde, werden mit Daten-basierten Techniken abgeschätzt. Das Signal wird im Kontext einer effektiven Feldtheorie modelliert. Die angenommene Signalkopplung ist entweder links- oder rechtshändig und involviert entweder ein Up-Quark oder ein Charm-Quark. Unter der Annahme, dass nur eine dieser Signalkopplungen zeitgleich präsent ist, wird jeweils ein tiefes neuronales Netz trainiert, um Ereignisse als Signal- oder Untergrundkandidaten zu klassifizieren. In einem Profile-Likelihood-Fit wird die Untergrundvorhersage verbessert und die Signalstärke abgeschätzt. Weil kein Signalbeitrag in Daten gefunden wurde und die Untergrundvorhersage mit den Daten übereinstimmen, werden obere Ausschlussgrenzen auf die Verzweigungsverhältnisse B(t→uγ) und B(t→cγ) gesetzt. Die beobachteten Ausschlussgrenzen auf das Verzweigungsverhältnis mit einem Konfidenzniveau von 95 % sind B(t→uγ, linkskhändig) < 2,8 10⁻⁵, B(t→uγ, rechtshändig) < 6,1 10⁻⁵, B(t→cγ, linkshändig) < 22 10⁻⁵ und B(t→cγ, rechtshändig) < 18 10⁻⁵. Diese Ausschlussgrenzen werden als Ausschlussgrenzen auf den Produktionswirkungsquerschnitt eines Top-Quarks und eines Photons durch einen quarkflavourverändernden neutralen Strom und als Ausschlussgrenzen auf den Absolutwert der Summe der Wilson-Koeffizienten CuBij* und CuWij* für die linkskhändigen und CuBij und CuWij für die rechtshändigen Kopplungen interpretiert. 201 248 211 Entwicklung und Test der dritten H1-Triggerstufe To benefit from the increase in luminosity by a factor of five anticipated after the upgrade of the HERA storage ring, the H1 collaboration is building a Fast Track Trigger (FTT). It's aim is to provide a high selectivity for exclusive final states accompanied by an efficient background reduction.

The FTT fits into the first three levels of the existing H1 trigger system. The first level identifies track segments within each of the four radial trigger layers formed by selected signal wires of the central H1 drift chambers. The segments are taken as input data for the second level where they are combined to complete tracks. A subsequent track parameter fit provides full three-dimensional track information which are passed to the third level FTT-L3.

FTT-L3 should be able to identify exclusive final states within 100 musec. Within the scope of this theses a concept for FTT-L3 has been developed and a test set-up has been built. The selection algorithms are implemented on a farm of processor boards integrated in a VME system. In addition to the programming of these boards several data paths for high speed data transmission within the system and to interfaces have been set up. Test measurements have revealed that the system described in this theses is able to fulfill the given specifications.

In addition a modular data read-out system for the FTT has been developed which is described in this theses. After commissioning it has become possible to pass FTT data to the central H1 data acquisition. Um nach Umbau des HERA-Speicherrings von der um den Faktor fünf erhöhten Luminosität profitieren zu können, indem bei einer effizienten Unterdrückung des Untergrunds gleichzeitig eine hohe Selektivität bei der Datenaufzeichung exklusiver Endzustände ermöglicht wird, baut die H1-Kollaborationen einen schnellen, auf Spurkammerinformationen basierenden Trigger.

Dieser Fast Track Trigger (FTT) gliedert sich in die ersten drei Stufen des bestehenden H1-Triggersystems ein. Zunächst werden für ausgewählte Drähte der zentralen Spurkammer Spursegmente in vier radialen Triggerlagen identifiziert, um diese in der zweiten Stufe zu vollständigen Spuren zusammenzufügen. Eine nachfolgende Spurparameteranpassung liefert die dreidimensionalen Eingangsdaten für die als FTT-L3 bezeichneten dritte Stufe des Fast Track Triggers.

Aufgabe von FTT-L3 ist die Identifikation exklusiver Endzustände innerhalb von etwa 100 musec. Im Rahmen der vorliegenden Arbeit wurde ein Konzept für FTT-L3 entwickelt und in einem Testaufbau umgesetzt. Als Plattform für Selektionsalgorithmen dient eine Farm von Prozessorkarten, die in einem VME-System integriert sind. Neben der Programmierung dieser Prozessorkarten wurde ein Konzept für den schnellen Datentransfer innerhalb des Systems und zu verschiedenen Schnittstellen entwickelt. Durch Testmessungen konnte gezeigt werden, daß das beschriebene System in der Lage ist, die Spezifikationen zu erfüllen.

Weiterhin wurde ein modulares Datenauslesesystem für den gesamten FTT entwickelt und in Betrieb genommen. Damit ist es möglich, Daten des FTT über das zentrale H1-Datennahmesystem aufzuzeichnen. 202 198 157 The European law on age discrimination consequences for German employment law More and more, the exclusion of older workers from working life is becoming a legal issue, due to the extension of antidiscrimination law with its Human Rights aspects into employment law. The ban on age discrimination will have to be introduced also into German labour law, with the effect that any age differentiation in employment will have to be justified by good causes. Thereby, antidiscrimination law furthers an oncoming change of paradigm, leading from the model of lifelong and full-time employment with only one employer to the model of employment flexible both in time and place. A lot of legal rules that formerly used to be considered as indispensable in German labour law, will have to be questioned. In the future, age cannot be used as a shortcut for low performance, low capability and low flexibility; on the other hand, seniority rights cannot be justified by automatic increases of qualifications either. Also, every attempt of reducing competition for scarce jobs will in the future have to be questioned if relying on formal age-limits or a generally formulated intention of creating a specific age pattern in the enterprise. Das europäische Recht zur Altersdiskriminierung 203 245 252 In the German health care system, incentives offered by health insurance carriers for health promotion efforts are intended to increase the participation rate. Because people increasingly are taking advantage of such offers, eventually there should be a reduction in the number of illnesses related to an unhealthful lifestyle. With this approach, German lawmakers hope to see a reduction in health care costs which, in light of demographic developments in Germany and other industrialized nations, is becoming increasingly urgent. Incentives serve to reinforce desired behavior. German businesses increasingly use this method in marketing. This became possible once legal restrictions on the issuance of rebates were lifted. The trend of using rebates and rewards to influence people emotionally and to tie customers to a company was applied, without scientific verification, to influence health-related behavior. In this paper, the use of incentives in wellness care and the promotion of good health is examined. This method is analyzed theoretically first from the perspective of competition and then against a psychological background as it relates to health and motivation. It was evident that the experiences from business cannot be applied equivalently in the context of health psychology. Questioning participants in a wellness class at a health insurer revealed a tendency to reach a target audience that does not need incentives in order to change behavior. In this paper, concepts from motivational psychology were applied to the rewarding of the participants in health classes and formulated as theses to be tested. Chancen und Grenzen der Bonifizierung von Gesundheitsverhalten in der Gesetzlichen Krankenversicherung 204 167 163 Each of the three memory institutions library, museum and archive has developed his own conceptual model for their holdings of objects and materials. The static model "Functional Requirements for Bibliographic Records" (FRBR) was established for a more precise bibliographic indexing in libraries. But this model lacks a detailed concept of the entity "work" and is not that much useful for non-book materials. The CIDOC Conceptual Reference Model (CRM) is the central data model for museums; it is very appropriate for the heterogeneous mass of museum objects and artefacts which are all products of an artistic or intellectual creation. IFLA and ICOM harmonized FRBR with CRM in mutual exchange. The outcome, FRBROO (object-oriented FRBR), shows advantages in terms of a more strict interpretation of the group 1-entities of FRBR, and also in a closer illustration of processes and events. Examples of an applied approach of FRBROO show its gain in scientific indexing of manuscripts, prints, online publications, performing arts, maps, and musical works within a CRM-based data base. Vernetztes Wissen 205 165 170 Freundschaftsbeziehungen in Zeiten sozialer Onlinenetzwerke – Die Bedeutung von Freundschaft für das Selbstkonzept Jugendlicher Friendships are important for the personal development of teenagers during adolescence. They constitute crucial social resources for their whole life. Social media brings opportunities as well as challenges to cultivate friendships. The present study examines four types of friend-ship. These types of friendship were defined on the basis of data collected from interviews with teenagers (n = 59) - primarily ‘the traditional’, secondly ‘the modern-traditional’, thirdly ‘the onliner’ and fourthly ‘the online-gamer’. Additionally, an online survey (n = 245) showed coherence of friendship and self-concept of teenagers, due to the fact that friendship as a personal resource effects the well-being of adolescents. The results provide partial empirical evidence for the hypothesis. There are differences in self-concept according to gender and the typology of friendship. Male teenagers have a more positive self-concept than female teenagers. Furthermore, adolescents who match the modern-traditional type have the most positive self-concept. The more balanced teenagers build their friendships through social me-dia and personal contact, the more positive is their self-concept. Freundschaften sind und bleiben wichtig für die Persönlichkeitsentwicklung im Jugendalter, weil sie entscheidende soziale Ressourcen für das Leben darstellen. Durch soziale Medien entstehen neue Möglichkeiten aber auch Herausforderungen für die Freundschaftspflege. In der vorliegenden empirischen Arbeit werden mittels einer qualitativen Befragung von Jugend-lichen (n = 59) vier Freundschaftstypen identifiziert – die/der Traditionelle, die/der Modern-Traditionelle, die/der Onliner/in und die/der Onlinespieler/in. In einem zweiten Schritt wird mittels quantitativer Befragung (n = 245) der Zusammenhang von Freundschaft und jugend-lichem Selbstkonzept untersucht, denn dieses hat als persönliche Ressource Auswirkungen auf das Wohlbefinden Jugendlicher. Die Ergebnisse unterstützen die Hypothesen teilweise. Es können signifikante geschlechtsspezifische sowie freundschaftstypspezifische Unter-schiede im Selbstkonzept ermittelt werden. Jungen weisen generell ein positiveres Selbst-konzept auf als Mädchen und der Freundschaftstyp die/der Modern-Traditionelle zeigt das positivste Selbstkonzept. Je ausgewogener die Freundschaftspflege heute von Jugendlichen sowohl über soziale Medien als auch durch persönlichen Kontakt erfolgt und je zufriedener Jugendliche in sogenannten Hybrid-Beziehungen leben, desto positiver erscheint das Selbst-konzept einer/eines Jugendlichen. 206 528 444 Studien zur Gold-katalysierten Cycloisomerisierung von 1,7-Eninen Natural products mostly consist of cyclic and polycyclic ring systems and they are an important source in the search of suitable biologically active molecules. The development of appropriate cyclization methods is of crucial importance in order to gain access to the biologically active compounds. Gold-catalyzed rearrangements of 1,n-enynes (n = 5-7) proved to be an effective method for the construction of such complex structures and have already been applied in natural product synthesis. In contrast to 1,6-enynes, gold-catalyzed cycloisomerizations and skeletal rearrangements of 1,7-enynes are not widely explored. Therefore, they were investigated in this thesis. By varying the substituents of the easily accessible o-propargyloxystyrenes, the parameters were discovered which did not lead to the known eight-membered ring ethers under gold catalysis, but promoted the generation of smaller ring systems. Despite the electron-rich phenoxy group in the substrate, these reactions were also applicable to vinologous 1,7-enynes with an all-carbon skeleton. Depending on the electronic and steric properties of the substituents and the gold catalysts, these 1,7-enynes also led to different cyclic structures via various carbocations. The o-propargyloxystyrenes were mainly converted into benzo[b]oxocines using IPrAuCl. Only 1,7-enynes with electron-rich alkene substituents or with trisubstituted alkene units together with an ethyl group on the alkyne lead to chromanes with exocyclic allenic function in good yields. A methyl substituent on the alkyne reduced the yield or favored the generation of the eight-membered ring ethers. The involvement of the aryl group as a nucleophile had little effect. For the synthesis of 1,7-enyes with all-carbon skeleton, the homopropargyl group was linked to the homostyryl group via the α-carbon atom of the diethyl malonate. Catalysts screening revealed that the cationic [JohnPhosAu(NCMe)]SbF6 delivered the best yields in allene synthesis under microwave heating. The alkyne substituent of the 1,7-enynes had little influence on the synthesis of allenes, while retaining the electron-rich p-methoxyphenyl substituent on the alkene function. The variation of the alkene substituent on the 1,7-enyne showed that electron-neutral substituents lead to 1,3-dienes stereospecifically and electron-poor substituents gave no reaction. In addition to electron-rich aryl groups, electron-rich heteroaryl groups were also tolerated as alkene substituents and bis(phenylsulfonyl)methane as a linking group in allene synthesis. The activation of the allenic function by gold catalysts did not lead to the formation of corresponding polycycles for any of the substrates. By increasing the nucleophilicity of the aryl group and by reducing the steric demand of the alkyne substituent of the 1,7-enyne (methyl instead of ethyl), the formation of hexahydroanthracene could be observed via a formal dehydrogenative Diels-Alder reaction. 1,7-enynes with longer-chain substituents on the alkyne were not converted into hexahydroanthracenes. A terminal alkyne function in the 1,7-enyne promoted the formation of 1,3-dienes. The gold-catalyzed hexahydro-anthracene synthesis also tolerates a bis(phenylsulfonyl)methane linking group and an α-methylstyryl substituent. Malononitrile, cyclohexane-1,3-dione and heteroatoms proved to be unsuitable linking groups. Based on the results obtained, corresponding mechanisms were postulated. a) 5 mol% [JohnPhosAu(NCMe)]SbF6, DCE, MW, 80–100°C. b) 5 mol% IPrAuCl, 5 mol% AgSbF6, DCE, rt. The developed divergent gold-catalyzed cycloisomerization could serve as a basis for the synthesis of natural products or biologically active compounds in the future, since both the vinylidene cyclohexane and the 1,4-anthraquinone skeleton are found in pharmacologically interesting natural products. Naturstoffe bestehen zumeist aus cyclischen und polycyclischen Ringsystemen und sind eine wichtige Quelle bei der Suche nach geeigneten Wirkstoffen. Die Entwicklung geeigneter Cyclisierungsmethoden ist von entscheidener Bedeutung, um Zugang zum Grundgerüst zu erhalten. Gold-katalysierte Umlagerungen von 1,n-Eninen (n = 5−7) erwiesen sich als wirksame Methode zum Aufbau solcher komplexer Strukturen und fanden bereits Anwendung in der Naturstoffsynthese. Gold-katalysierte Cycloisomerisierungen von 1,7-Eninen sind jedoch im Vergleich zu 1,6-Eninen unzureichend untersucht und wurden daher in der vorliegenden Arbeit erforscht. Durch geschickte Variation der Substituenten am o-Propargyloxystyren wurden die Parameter aufgedeckt, die unter Goldkatalyse nicht zu den bekannten Achtringethern führen, sondern die Generierung von kleineren Ringsystemen begünstigen. Trotz der elektronenreichen Phenoxygruppe im Substrat konnten diese Reaktionen auch auf vinologe 1,7-Enine mit reinem Kohlenstoffgerüst übertragen werden. In Abhängigkeit von den elektronischen und sterischen Eigenschaften der Substituenten und der Gold-katalysatoren, wurden auch diese 1,7-Enine über verschiedene Carbenium-Ionen in Verbindungen mit unterschiedlichen cyclischen Strukturen überführt. Unter Verwendung von IPrAuCl wurden die o-Propargyloxystyrene größtenteils in Benzo[b]oxocine überführt. Lediglich 1,7-Enine mit elektronenreichen Alkensubstituenten oder mit trisubstituierter Alkeneinheit zusammen mit einer Ethyl-Gruppe am Alkin führten in guten Ausbeuten zu Chromanen mit exocyclischer Allenfunktion. Ein Methyl-Sub-stituent am Alkin verringerte die Ausbeute oder begünstigte die Generierung des Achtring-ethers. Die Einbindung der Arylgruppe als Nucleophil hatte nur geringen Erfolg. Für die Synthese von 1,7-Eninen mit reinem Kohlenstoffgerüst wurde die Homopropargyl- mit der Homostyrylgruppe über das α-Kohlenstoffatom des Malonesters verknüpft. Aus dem Katalysatorenscreening resultierte, dass der kationische [JohnPhosAu(NCMe)]SbF6 unter Mikrowellenerwärmung die besten Ausbeuten in der Allensynthese erzielte. Der Alkinsubstituent der 1,7-Enine hatte unter Beibehaltung des elektronenreichen p-Methoxyphenylsubstituenten an der Alkenfunktion kaum Einfluss auf die Allensynthe-se. Die Variation des Alkensubstituenten am 1,7-Enin zeigte, dass elektronenneutrale Substituenten zumeist stereospezifisch zu 1,3-Dienen führten und elektronenarme zu keiner Reaktion. Neben elektronenreichen Arylgruppen wurden auch elektronenreiche Heteroarylgruppen als Alkensubstituenten und Bis(phenylsulfonyl)methan als Verknüp-fungsgruppe in der Allensynthese toleriert. Die Aktivierung der Allenfunktion durch Gold-katalysatoren führte für keines der Substrate zur Bildung entsprechender Polycyclen. Durch Erhöhung der Nucleophilie der Arylgruppe und durch Verringerung des sterischen Anspruchs des Alkinsubstituenten des 1,7-Enins (Methyl anstelle von Ethyl) konnte die Bildung von Hexahydroanthracenen über eine formale Dehydro-Diels-Alder Reaktion beobachtet werden. 1,7-Enine mit langkettigeren Alkinsubstituenten wurden nicht in Hexahydroanthracene überführt. Eine terminale Alkinfunktion im 1,7-Enin begünstigte die Bildung von 1,3-Dienen. Die Gold-katalysierte Hexahydroanthracensynthese erlaubt zu-dem die Verwendung einer Bis(phenylsulfonyl)methanverknüpfungsgruppe und eines α-Methylstyrylsubstituenten. Malononitril, Cyclohexan-1,3-dion und Heteroatome erwiesen sich als ungeeignete Verknüpfungsgruppen. Auf Grundlage der erhaltenen Ergebnisse wurden entsprechende Mechanismen postuliert. a) 5 mol% [JohnPhosAu(NCMe)]SbF6, DCE, MW, 80–100°C. b) 5 mol% IPrAuCl, 5 mol% AgSbF6, DCE, rt. Die entwickelte divergente Gold-katalysierte Cycloisomerisierung könnte zukünftig als Grundlage für die Naturstoffsynthese dienen, da sowohl das Vinylidencylohexan als auch 1,4-Anthrachinongerüst in pharmakologisch interessanten Naturstoffen zu finden sind. 207 223 262 Handlungsregulation und Wissenserwerb in traditionellen und computergestützten Experimenten des physikalischen Praktikums This work deals with learning in the beginners' physics laboratory at the university level in Germany. It examines whether the students acquire knowledge of physics and of scientific experimentation by performing a laboratory experiment, and if a relationship exists between the students' knowledge acquisition and their actions during laboratory work. Thus, the learning expectations are compared with the actual results of beginners' physics laboratories. Furthermore, it is examined to what extent the use of the computer for data capture and model building can affect students' action regulation and learning outcomes. Constructivist theories of learning constitute the theoretical basis for the investigation. They are used in combination with concepts of action theory, with aspects of physics education taken into account. Video recordings of laboratory work are analysed by a category-based analysis, which was specifically developed for this research. Concept maps are used for investigating students' knowledge and are analysed on the basis of a reference map. The research results show that the traditional beginners' physics laboratory at the university level is not a learning environment particularly well suited for applying and acquiring knowledge of physics actively, and that in this context the use of the computer hardly effects either the students' action regulation or knowledge acquisition. Based on the results of this research, ways to improve the effectiveness of physics laboratory work are discussed. Das Praktikum unterscheidet sich von allen anderen Unterrichtsformen zum Erlernen von Naturwissenschaften. Beim Experimentieren greifen die Lernenden aktiv in ihre Umwelt ein. Indem sie ihr Wissen über Physik zur Steuerung ihrer Handlungen benutzen, können sie bekannte Gesetzmäßigkeiten überprüfen oder neue Gesetzmäßigkeiten entdecken und verstehen, und damit neues Wissen erwerben. Viele Autoren sind allerdings der Meinung, dass bestehende Praktika dem Anspruch, das theoretische Wissen der Lernenden mit experimentellen Erfahrungen zu verbinden, nicht gerecht werden. Die vorliegende Arbeit befasst sich mit dem Lernen im physikalischen Anfängerpraktikum an der Universität. Es wird untersucht, ob die Studierenden durch die Durchführung eines Praktikumsexperiments physikalisches und experimentelles Wissen erwerben, und welcher Zusammenhang zwischen dem Wissenserwerb und den Handlungen im Praktikum besteht. Damit werden zum einen Anspruch und Wirklichkeit physikalischer Anfängerpraktika verglichen. Zum anderen wird untersucht, inwieweit der Einsatz des Computers zur Messwerterfassung und zur Modellbildung eine Veränderung in der Handlungsregulation und im Wissen der Studierenden bewirken kann. Theoretische Basis der Untersuchung bilden konstruktivistische Ansätze der Lernpsychologie. Sie werden mit handlungstheoretischen Konzepten verknüpft, wobei fachdidaktische Aspekte berücksichtigt werden. Videoaufzeichnungen der Praktikumsarbeit werden über eine speziell dafür entwickelte kategoriegeleitete Analyse ausgewertet. Als Wissenstest werden Begriffsnetze erhoben und anhand eines Referenznetzes ausgewertet. Die Ergebnisse zeigen, dass das traditionelle physikalische Anfängerpraktikum an der Universität keine für die Anwendung und den aktiven Erwerb physikalischen Wissens besonders geeignete Lernumgebung darstellt, und dass in diesem Kontext auch der Einsatz des Computers kaum Auswirkungen auf die Handlungsregulation und den Wissenserwerb der Studierenden hat. Anhand der Untersuchungsergebnisse werden Wege zur Verbesserung physikalischer Praktika aufgezeigt und diskutiert 208 120 94 The German occupational health and safety regulations on company level after the realisation of the European environmental guides lines Das betriebliche Arbeits- und Gesundheitsschutzrecht der Bundesrepublik nach der Umsetzung der europäischen Arbeitsumweltrichtlinien German occupational health and safety regulations have received important impulses from the legislation of the European Union. The new direction in German health and safety law will be outlined against the background of out-dated judiciary interpretation of health and safety regulations as part of police law. The new regulations constitute an appropriate framework to cope with the rapid change in working conditions, for example caused by new technologies or new concepts of work organization. The success of the new health and safety laws depends on the acceptance of the new philosophy behind occupational health and safety law by the organizations concerned. Das deutsche Arbeitsschutzrecht hat durch die Rechtssetzung der Europäischen Union wichtige Impulse erfahren. Vor dem Hintergrund des überkommenen ordnungsrechtlichen Verständnisses des Arbeitsschutzrechts werden anhand der europäischen Regulierung und des neuen Arbeitsschutzgesetzes wesentliche Neuorientierungen vorgestellt. Die neuen Vorschriften bilden einen geeigneten rechtlichen Handlungsrahmen, um den Wandel in der Arbeitswelt, hervorgerufen etwa durch neue Technologien oder innovative Konzepte der Arbeitsorganisation, sicher und gesund zu gestalten. Der Erfolg des neuen Arbeitsschutzgesetzes wird davon abhängen, wie die betrieblichen Akteure die neue Philosophie des Arbeitsschutzrechts annehmen. 209 201 200 Zum Mechanismus einer gentoxischen Wirkung des 1,3-Butadien-Metaboliten 1,2:3,4-Diepoxybutan auf das Nierengewebe The gaseous monomer 1,3-butadiene (BD) is widely used in synthetic production of plastics. Classified as a human carcinogen the substance is suspected to cause kidney cancer. The DNA-reactive metabolite of BD is considered to be 1,2:3,4-diepoxybutane (DEB) formed by enzymatic reaction with cytochrome P-450 2E1 (CYP2E1). The thesis assesses the risk of BD for humans with regard to the nephrocarcinogenic potential based on results of enzymatic characterization of renal tissue and in vitro investigations concerning the glutathione transferase T1-1 (GSTT1-1)-dependent metabolism of DEB. The generated compounds were separated with µHPLC followed by analysis with ESI-MSn as well as 13C-NMR-spectroscopy. Mainly conjugation was observed between DEB and the GST-cofactor glutathione at the C1-position, resulting in S-(2-hydroxy-3,4-epoxybutyl)-glutathione. Different indications supported the prior postulation of a reactive episulfonium ion intermediate generated and assumed to be an ultimate carcinogen. The enzymatic characterization of renal tissue was carried out with samples from patients with renal cell carcinoma. The investigations were restricted to CYP2E1 and GSTs involved in BD-metabolism. Enzymatic activity was measured for all investigated GSTs by spectrophotometric and gaschromatographic assays, respectively. Compared to normal tissue activities in tumour tissue were reduced. No evidence for existence of CYP2E1 in human kidneys was obtained by Western blots. Das gasförmige Monomer 1,3-Butadien (BD) findet vielfältige Verwendung bei der Herstellung synthetischer Kunststoffe. Für die als Humankanzerogen eingestufte Substanz besteht unter anderem der begründete Verdacht Nierenkrebs auszulösen. Als ein DNA-reaktiver Metabolit von BD gilt das über Cytochrom P450 2E1 (CYP2E1) enzymatisch gebildete 1,2:3,4-Diepoxybutan (DEB). Im Rahmen der Dissertation erfolgt eine Risikoabschätzung für das kanzerogene Potential von BD auf die humane Niere basierend auf enzymatischer Charakterisierung des Nierengewebes und in vitro Untersuchungen zur Glutathion Transferasen T1-1 (GSTT1-1)-abhängigen Weiterverstoffwechslung von DEB. Die gebildeten Verbindungen wurden durch µHPLC getrennt und mittels ESI-MSn sowie 13C-NMR-Spektroskopie analysiert. Zwischen DEB und dem GST-Cofaktor Glutathion bildete sich überwiegend das C1-Konjugat S-(2-Hydroxy-3,4-epoxybutyl)-glutathion. Darüber hinaus ergaben sich Hinweise für die zuvor nur postulierte Bildung eines sehr reaktiven intermediären Episulfoniumions, das als ultimales Kanzerogen angesehen werden kann. Die enzymatische Charakterisierung der Niere wurde mit Probenmaterial von Patienten mit Nierenzellkarzinom durchgeführt und beschränkte sich auf die für den BD-Metabolismus wichtigen Enzyme CYP2E1 und GSTs. Mit Hilfe spektralphotometrischer bzw. gaschromatographischer Methoden konnte für alle untersuchten GSTs Aktivität gemessen werden. Im Tumorgewebe war diese im Vergleich zu normalem Gewebe reduziert. Der Nachweis des Isoenzyms CYP2E1 mittels Western Blots im Nierengewebe war negativ. 210 182 182 Festphasensynthese von Spiro[5.5]ketalen und deren biologische Evaluierung The spiro[5.5]ketal forms the underlying structural skeleton of numerous biologically active natural products. Since simplified but characteristic spiroketals derived from the parent natural products retain biological activity, the spiro[5.5]ketal can be regarded as a biologically pre-validated framework for the development of natural product-derived compound collections. Within this thesis two routes were found to synthesize spiroketals in a stereoselective manner on the solid support. The first strategy starts from enantiomerically pure building blocks, applies a double internal hetero Michael addition as key step and gives the spiroketals in high overall yield and purity. In a second strategy the enantioselective synthesis of spiro[5.5]ketals on solid support is reported. The reaction sequence employs asymmetric boron-enolate aldol reactions with the enolate bound to the polymer or in solution as the key enantiodifferentiating step. It proceeds in up to 12 steps on solid support and makes the desired spiroketals available with high overall yield and with high stereoselectivity. The screening of the two libraries revealed both, compounds that inhibit phosphatases and compounds that modulate formation of the tubulin cytoskeleton in human cancer cells without directly targeting microtubules. Das Spiro[5.5]ketal ist die zu Grunde liegende Teilstruktur zahlreicher biologisch aktiver Naturstoffe. Aufgrund der Tatsache, dass vereinfachte, charakteristische Spiroketale, die von Naturstoffen abgeleitet worden waren, ihre biologische Aktivität behielten, zeigt, dass das Spiro[5.5]ketal als biologisch prävalidierte Struktur betrachtet werden kann und somit als Leitstruktur in der Naturstoff-basierten Bibliothekssynthese geeignet ist. In dieser Dissertation wird über zwei unterschiedliche Wege berichtet, Spiroketale stereoselektiv an der Festphase zu synthetisieren. Die erste Strategie geht von enantiomerenreinen Bausteinen aus, verwendet als wesentlichen Syntheseschritt eine doppelte, interne Hetero-Michael-Addition und führt zu den Spiro[5.5]ketalen in hoher Ausbeute und Reinheit. In einer zweiten Strategie wird die enantioselektive Synthese von Spiroketalen am polymeren Träger erreicht. Die Reaktionssequenz verwendet die asymmetrische, Bor-Enolat-vermittelte Aldolreaktion als stereodifferenzierenden Schritt, wobei das Bor-Enolat am Polymer gebunden ist oder in Lösung vorliegt. Sie verläuft über 12 Stufen an der Festphase und führt zu den gewünschten Spiroketalen in hoher Gesamtausbeute und hoher Stereoselektivität. Das Testen beider Bibliotheken ergab mehrere Verbindungen, die zum einen Phosphatasen inhibieren und zum anderen den Aufbau des Tubulingerüsts in Brustkrebszellen modulieren, ohne Mikrotubulin als direktes Ziel aufzuweisen. 211 149 116 Zur Wirksamkeit von Maßnahmen aktiver Arbeitsmarktpolitik This article addresses the impact and drift dimensions of active labour market policies (ALMP) which are being used to reduce unemployment for more than 20 years. The key issue of the contribution is the promotion of vocational education and training to increase labour market participation for individuals all over Europe. Therefore, as a first step I will outline the development of and spending on ALMP. Second, the difficulties in identifying and evaluating the impact of ALMP and current findings on their use in European countries will be discussed. Third, a number of conclusions will be drawn from these findings. They will finally lead to possible consequences with regard to the implementation of further successful and effective labour market measures. The contribution emerged from a project on continuing vocational education and training for older (low qualified) workers in cooperation with the Bildungswerk der Hessischen Wirtschaft and the Bundesagentur für Arbeit. Der Beitrag geht der Frage nach der Wirksamkeit der Maßnahmen aktiver Arbeitsmarktpolitik (ALMP active labour market policies) nach, die seit mittlerweile rund 20 Jahren als politische Strategie zur Reduktion von Arbeitslosigkeit eingesetzt werden. Im Zentrum steht dabei in Förderung beruflicher Bildung zur Erhöhung der Arbeitsmarktteilhabe. Ausgangspunkt bildet die Ausgabenentwicklung und -verteilung von ALMP in Deutschland und Europa. Daran anschließend werden die Probleme der Erfassung und des Nachweises der Wirksamkeit von ALMP skizziert und Befunde über die Impacts unterschiedlicher ALMP-Typen im deutschen und internationalen Kontext vorgestellt. Daraus lässt sich eine Reihe von Erkenntnissen ableiten, die als Voraussetzung für die Konzeption erfolgreicher ALMP gelten und Schlussfolgerungen für die Weiterentwicklung aktiver Arbeitsmarktpolitik zulassen. 212 279 233 Unternehmensnachfolge in mittelständischen Familienunternehmen vor dem Hintergrund aktueller ökonomischer Wandlungsprozesse On the background of a currently large number of company transfers (small and medium sized companies) in Germany and the relating high economic-political meaning of this topic, the present paper compared to the former paper is at-tempting to illustrate the complexity of the family succession in business. Main objective of the paper is attempting to clarify the success and failure modes considering the latest requirements of SME due to the growing, world-wide globalisation process. Specific emphasis is attached to personal and strategic aspects. Besides an analysis of the current state of research, the following main results were clarified through a qualitative and observational study in ten middle sized German family owned companies : 1. In a certain way in contrary to some market research, the main factor of success for managing the succession is the role of the senior: essential is the preparation of senior retraction from the business and planning of the downgrading of responsibilities. Of utmost importance is clearly defin-ing roles on responsibilities for his successors and an intense confronta-tion with the social interactions within the company. 2. The guarantee of being a successful and safe company in the future plays, besides the senior, a major role for the smooth process of suc-ceeding someone in office. Therefore, the presence of a future-orientated strategy concept builds up a further main column for the changeover of generation. n summary a synopsis arose that not only the main role of a senior could be of major importance for the generation changeover, but also the key stakeholders involved that means the whole company as a social system would play a key role for the future success of the family orientated business. Vor dem Hintergrund einer sehr großen Anzahl anstehender Übergaben von kleinen und mittleren Unternehmen in Deutschland und der damit verbundenen, hohen wirtschaftspolitischen Bedeutung dieses Themenbereichs versucht die vorliegende Arbeit, das komplexe System der Einflussfaktoren der familienin-ernen Nachfolge über die bisherigen Arbeiten hinaus weiter zu durchdringen. Hauptziele sind die Erarbeitung von Erfolgs- und Misserfolgsmustern unter ex-pliziter Berücksichtigung der neuen Anforderungen an KMU auf Grund des sich verstärkenden, weltweiten Globalisierungsprozesses. Besonderes Gewicht wird hierbei auf persönliche und strategische Aspekte gelegt. Neben einer Analyse des derzeitigen Forschungsstandes wurden anhand einer qualitativen, empirischen Studie bei zehn deutschen Familienunternehmen des Mittelstands folgende Hauptergebnisse erarbeitet: 1. In gewisser Weise gegenläufig zu vielen bisherigen Forschungen wurde als zentraler Erfolgsfaktor für das Gelingen der Nachfolge die Person des Seniors herausgearbeitet. Hierbei ist insbesondere von Bedeutung, dass der Senior sehr intensiv seinen eigenen Rückzug plant sowie ein offensi-ves Konfliktmanagement betreibt. 2. Neben der Rolle des Seniors spielt auch die Sicherstellung der Zukunfts-fähigkeit des Unternehmens eine bedeutende Rolle für den Erfolg des Nachfolgeprozesses. Somit bildet das Vorhandensein eines zukunftsori-entierten Strategiekonzeptes eine weitere tragende Säule des Generati-onenwechsels. m Rahmen einer abschließenden Reflexion ergab sich die begründete Vermu-ung, dass über die zentrale Rolle des Seniors hinaus für zukünftige Generatio-nenwechsel auch alle weiteren am Nachfolgeprozess beteiligten Personen-gruppen, d. h. das gesamte soziale System Unternehmen für den Erfolg der amilieninternen Unternehmensna hfolge von hoher Bedeutung sein werden. 213 229 183 On the hunt for photons: analysis of Crab Nebula data obtained by the first G-APD Cherenkov telescope In this thesis the analysis of data of the Crab Nebula obtained by the First G-APD Cherenkov Telescope (FACT) is presented. An analysis chain using modern machine learning methods for energy estimation and background suppression is developed. The generation and application of the machine learning models are validated using Monte Carlo simulated events. The Crab Nebula can be detected as a source of very high energy gamma rays with a significance of 39.89 σ. Its energy spectrum can be reconstructed between 250 GeV and 16 TeV. The results of the analysis are used to evaluate the performance of the telescope. The energy bias and energy resolution are evaluated as well as the effective collection area and the sensitivity. The positive energy bias for energies below 1 TeV can be corrected by applying an unfolding method. For higher energies the bias is negligible. The energy resolution is about 22 % for most of the energy range. The effective collection area is monotonously increasing, reaching about 3 × 10 4 m 2 around 1 TeV. A sensitivity of 15.5 % of the flux of the Crab Nebula is calculated. The performance values are comparable to the values of current experiments. Taking into account the small reflector surface of FACT, the performance is very promising. In dieser Dissertation wird die Analyse von Daten des Krebsnebels, aufgenommen durch das First G-APD Cherenkov Telescope (FACT), präsentiert. Zu diesen Zweck wird eine Analysekette entwickelt, die moderne Machine-Learning-Methoden zur Energieabschätzung und Hintergrundunterdrückung verwendet. Mit Hilfe von Monte-Carlo-simulierten Ereignissen wird die Generierung und Anwendung der Machine-Learning-Modelle validiert. Der Krebsnebel kann mit einer Signifikanz von 39.89 σ detektiert werden. Sein Energiespektrum kann zwischen 250 GeV und 16 TeV rekonstruiert werden. Die Ergebnisse der Analyse werden verwendet, um die Performanz des Teleskopes zu evaluieren. Untersucht werden der Bias und die Auflösung der Energie, sowie die effektive Fläche und die Sensitivität. Der positive Bias für Energien unter 1 TeV kann mit Hilfe einer Entfaltungsmethode korrigiert werden. Für höhere Energien ist er vernachlässigbar. Die Energieauflösung beträgt ungefähr 22 % für den größten Teil des Energie Bereiches. Die effektive Fläche steigt monoton an und erreicht einen Wert von ungefähr 3 × 10 4 m 2 bei 1 TeV. Die Sensitivität beträgt 15.5 % des Flusses des Krebsnebels. Die Performanzwerte sind vergleichbar mit den Werten aktueller Experimente. In Anbetracht der kleinen Reflektoroberfläche von FACT ist die Performanz sehr vielversprechend. 214 370 293 Pressure-Dependent Studies of the Structure of Proteins and Protein-Micelle Complexes Druckabhängige Strukturuntersuchungen an Proteinen und Protein-Mikroemulsion-Komplexen Caused by the negative activation volume proteins can be unfolded reversibly through appli-cation of high pressure. A special apparatus was constructed and used to allow a pressure range up to 6000 bar and pressure-jumps with pressure amplitudes up to 3200 bar. The kinetic data of the folding process is monitored with Time-Resolved Small-Angle X-Ray Scattering (TRSAXS) and determined from the change of the radius of gyration Rg and the pair-distance distribution function p(r) with time. Additionally, three-dimensional model structures are cal-culated from the scattering data and compared with structural data determined by X-Ray Dif-fraction (XRD) and NMR. The distribution of secondary structure elements is taken from FT-IR data of the proteins and combined with structural information; a possible unfolding path-way is proposed. In this work the proteins alcohol dehydrogenase (LADH), staphylococcal nuclease (Snase) and tryptophane repressor (Trp) are studied. The second part of this work contains the examination of the phase behavior and structure of AOT microemulsions with Small-Angle X-Ray and Neutron Scattering. The application of pressure leads to transitions to new phases like rod-like micelles, bicontinuous and lamellar phases. The size parameters can be determined directly from the scattering data with model structure factors. A new way to obtain the size parameters of the observed phase is the com-parison of the Teubner-Strey correlation function with the pair-distance distribution function p(r). Enzymes can be incorporated in microemulsions and reactions with substrates are monitored to characterize the stability of enzymes and the influence of the surfactant mem-brane on the enzyme. The reaction of ?-chymotrypsin with a model peptide and alcohol de-hydrogenase (LADH) with alcohol shows an increasing activity with increasing pressure caused by a negative reaction volume. The combination of the kinetic data and the structural data reveal a definite proof of a stabilizing effect of inverse micelles on the examined en-zymes. Especially LADH, which dissociates in aqueous solution above 1500 bar and as a re-sult is inactivated under these conditions, shows a dramatic increase in activity by incorpo-rating the enzyme in micelles. Additionally, the formation of rod-like micelles under pressure benefits the optimum contact between the surface of the enzyme and micelle, which influ-ences strongly the catalysis of the reaction. Bedingt durch ein negatives Aktivierungsvolumen lassen sich Proteine durch Druckänderung reversibel entfalten. Mit Hilfe einer speziell für Drücke bis 6000 bar und Drucksprungampli-tuden bis 3200 bar ausgelegten Apparatur werden zeitabhängig Röntgenkleinwinkelstreudaten (TRSAXS) gemessen und die kinetischen Daten des Faltungsprozesses aus dem Gyrationsra-dius Rg bzw. der Paarabstandsverteilungsfunktion p(r) bestimmt. Weiterhin werden dreidi-mensionale Strukturvorschläge des gefalteten und entfalteten Zustands berechnet und mit Röntgenkristall- bzw. NMR-Strukturen verglichen. Die Verteilung von Sekundärstrukturele-menten aus FTIR-spektroskopische Daten werden herangezogen, um einen Mechanismus für die Strukturänderungen innerhalb der Proteine vorzuschlagen. Im Rahmen dieser Arbeit wer-den Alkoholdehydrogenase (LADH), Staphylokokken Nuklease (Snase) und der Tryptophan Repressor (Trp) untersucht. Der zweite Teil der Arbeit befasst sich mit dem Phasenverhalten und der Struktur von AOT-Mikroemulsionen. Hierzu werden Röntgen- und Neutronenkleinwinkelstreustudien unter Va-riation des Drucks p durchgeführt. Dabei wird die Bildung von neuen Strukturen, wie Stäbchenmizellen, lamellare und bikontinuierliche Phasen, beobachtet. Die Größenparameter lassen sich direkt durch die Annahme polydisperser sphärischer Partikel aus den Streudaten oder nach der Fourier-Transformation durch Vergleich der Korrelationsfunktion des Teubner-Strey-Modells mit der Paarabstandsverteilungsfunktion ermitteln. In die untersuchten Mi-kroemulsionen (invers-mizellare Phase) lassen sich Enzyme inkorporieren und Enzymreak-tionen durchführen. Die Reaktion von ?-Chymotrypsin mit einem Modellpeptid und LADH mit Alkohol zeigt, bedingt durch das negative Aktivierungsvolumen der Reaktion, eine Zu-nahme der Geschwindigkeit durch Erhöhung des Drucks. Die Kombination enzymkinetischer und struktureller Ergebnisse ergeben für ?-Chymotrypsin und insbesondere für Alkoholdehy-drogenase (LADH), welches ab einem Druck von 1500 bar durch Dissoziation inaktiv wird, einen eindeutigen stabilisierenden Einfluss durch den Einbau in inverse Mizellen. Im Gegen-satz zur Aktivität von LADH in wässrigem Milieu nimmt diese in mizellarer Umgebung ab 1500 bar drastisch zu, eine Inaktivierung durch Dissoziation wird somit unterbunden. Die Beschleunigung der Reaktion wird durch Bildung von Stäbchenmizellen begünstigt, die eine optimale Anpassung an die ellipsiodale Proteinstruktur bedeutet. 215 208 160 Measuring the b-tagging efficiency in ATLAS data at √s = 8TeV and √s = 13 TeV using the ρTrel-method This thesis presents the first measurement of the b-tagging efficiency eff(b) with the pTrel-method under Run 2 conditions at the ATLAS experiment. The measurement has been performed for semi-leptonically decaying b-hadrons with a muon in the final state. This has been achieved by selecting events with a muon associated to a jet by a cone based matching algorithm. The pTrel-variable is sensitive to the mass of the weakly decaying particle and is therefore sensitive to the jet-flavor. Exploiting this dependence, the flavor fractions are determined with a log-likelihood template fit to the pTrel-distribution in the tagged and untagged jet samples determined by the algorithm and operating point under study. The dataset used for this study corresponds to an integrated luminosity of 11.6 / fb of proton-proton-collisions taken with the ATLAS detector at sqrt(s) = 13 TeV center of mass energy. In addition, eff(b) has been measured for algorithms on trigger level using the pTrel-method. This has been conducted in a set of proton-proton-collisions recorded at the ATLAS experiment at sqrt(s) = 8 TeV center of mass energy. Here, a conditional calibration depending on off-line tagger decisions has been utilized. In dieser Dissertation wird die erste Messung der b-tagging Effizienz eff(b) mit der pTrel-Methode am ATLAS Experiment unter Run 2 Bedingungen präsentiert. Die Messung wurde durchgeführt mit semileptonisch zerfallenden b-Hadronen mit einem Myon im Endzustand. Dies wurde erreicht durch Selektion von Myonen in einem Jet Kegel. Die pTrel-Variable is dabei sensitiv auf die Masse des schwach zerfallenden Teilchens und damit auf den Flavor des Jets. Dieser Zusammenhang lässt sich mit einem log-likelihood Fit ausnutzen um die Flavor-Anteile zu bestimmen, in Datensätzen unterteilt von dem betrachteten Klassifizierungsalgorithmus und Arbeitspunkt. Dies wurde durchgeführt auf einem Datensatz, der einer integrierten Luminosität von 11.6 / fb an Proton-Proton Kollisionen entspricht, aufgenommen mit dem ATLAS-Experiment bei einer Schwerpunktsenergie von sqrt(s) = 13 TeV. Zusätzlich wurde die pTrel-Methode benutzt um eff(b) auf Triggerlevel zu bestimmen. Dies wurde durchgeführt auf einem Datensatz von Proton-Proton Kollisionen, aufgenommen mit dem ATLAS-Detektor bei einer Schwerpunktsenergie von sqrt(s) = 8 TeV. Hier wurde die Messung abhängig von einer off-line Klassifizierung durchgeführt. 216 405 370 Fast and accurate finite-element multigrid solvers for PDE simulations on GPU clusters The main contribution of this thesis is to demonstrate that graphics processors (GPUs) as representatives of emerging many-core architectures are very well-suited for the fast and accurate solution of large sparse linear systems of equations, using parallel multigrid methods on heterogeneous compute clusters. Such systems arise for instance in the discretisation of (elliptic) partial differential equations with finite elements. We report on at least one order of magnitude speedup over highly-tuned conventional CPU implementations, without sacrificing neither accuracy nor functionality. In more detail, this thesis includes the following contributions: Single precision floating point computations may be insufficient for the class of problems considered in this thesis. We revisit mixed precision iterative refinement techniques to not only increase the accuracy of computed results, but also to increase the efficiency of the solution process. Both on CPUs and on GPUs, we demonstrate a significant performance improvement without loss of accuracy compared to computing in high precision only. We present efficient parallelisation techniques for multigrid solvers on graphics hardware, in particular for numerically strong smoothers and preconditioners that are suitable for highly anisotropic grids and operators. For instance, an efficient formulation of the cyclic reduction algorithm to solve tridiagonal systems is developed. In view of hardware-oriented numerics, we carefully analyse the trade-off between numerical and runtime performance for inexact parallelisation techniques that decouple some of the inherently sequential characteristics of strong smoothing operators. For large-scale established software frameworks, the re-implementation tailored to novel hardware platforms is often prohibitively expensive. We develop a 'minimally invasive' approach to integrate support for co-processor hardware like GPUs into FEAST, a finite element discretisation and solver toolbox. Our technique has the major advantage that applications built on top of the toolbox do not have to be changed at all to benefit from co-processor acceleration. The approach is evaluated for benchmark problems in linearised elasticity and stationary laminar flow computed on large-scale GPU-enhanced clusters. Good speedup factors and near-ideal weak scalability are observed. The achievable speedup is analysed and a theoretical speedup model is presented. Finally, we provide a historical overview of scientific computing on graphics hardware since the early beginnings in 2001/2002, when GPGPU was an obscure research topic pursued by few, to the widespread adoption nowadays. We discuss the evolution of the hardware and the programming model, and provide a comprehensive bibliography of publications related to PDE simulations on GPUs. Der wichtigste Beitrag dieser Dissertation ist es aufzuzeigen, dass Grafikprozessoren (GPUs) als Repräsentanten der Entwicklung hin zu Vielkern-Architekturen sehr gut geeignet sind zur schnellen und genauen Lösung großer, dünn besetzter linearer Gleichungssysteme, insbesondere mit parallelen Mehrgittermethoden auf heterogenen Rechenclustern. Solche Systeme treten bspw. bei der Diskretisierung (elliptischer) partieller Differentialgleichungen mittels finiter Elemente auf. Wir demonstrieren Beschleunigungsfaktoren von mindestens einer Größenordnung gegenüber konventionellen, hochoptimierten CPU-Implementierungen, ohne Verlust von Genauigkeit und Funktionsumfang. Im Detail liefert diese Dissertation die folgenden Beiträge: Berechnungen in einfach genauer Fließkommadarstellung können für die hier betrachteten Problemklassen nicht ausreichen. Wir greifen die Methode gemischt genauer iterativer Verfeinerung (Nachiteration) wieder auf, um nicht nur die Genauigkeit von berechneten Lösungen zu verbessern, sondern vielmehr die Effizienz des Lösungsprozesses als ganzes zu steigern. Sowohl auf CPUs als auch auf GPUs demonstrieren wir eine deutliche Leistungssteigerung ohne Genauigkeitsverlust im Vergleich zur Berechnung in höherer Fliesskomma-Genauigkeit. Wir präsentieren effiziente Parallelisierungstechniken für Mehrgitter-Löser auf Grafik-Hardware, insbesondere für numerisch starke Glätter und Vorkonditionierer, die für stark anisotrope Gitter und Operatoren geeignet sind. Ein Beispiel ist die Entwicklung einer effizienten Reformulierung des Verfahrens der zyklischen Reduktion für die Lösung tridiagonaler Gleichungssysteme. Im Hinblick auf Hardware-orientierte Numerik analysieren wir sorgfältig den Kompromiss zwischen numerischer und Laufzeit-Effizienz für inexakte Parallelisierungstechniken, die einige der inhärent sequentiellen Charakteristiken solcher starker Glätter zugunsten besserer Parallelisierungseigenschaften entkoppeln. Die Reimplementierung großer, etablierter Softwarepakete zur Anpassung auf neue Hardwareplattformen ist oft inakzeptabel teuer. Wir entwickeln einen "minimalinvasiven" Zugang zur Integration von Co-Prozessoren wie GPUs in FEAST, einem exemplarischen finite Elemente Diskretisierungs- und Löserpaket. Der Hauptvorteil unserer Technik ist, dass Applikationen, die auf FEAST aufsetzen, nicht geändert werden müssen um von der Beschleunigung durch solche Co-Prozessoren zu profitieren. Wir evaluieren unseren Zugang auf großen GPU-beschleunigten Rechenclustern für klassische Benchmarkprobleme aus der linearisierten Elastizität und der Simulation stationärer laminarer Strömungsvorgänge, und beobachten gute Beschleunigungsfaktoren und gute schwache Skalierbarkeit. Die maximal erreichbare Beschleunigung wird zudem analysiert und theoretisch modelliert, um bspw. Vorhersagen treffen zu können. Weiterhin fassen wir die historische Entwicklung des Forschungsgebiets "wissenschaftliches Rechnen auf Grafikhardware" seit 2001/2002 zusammen, d.h. die Entwicklung von GPGPU als obskures Nischenthema hin zum fachübergreifenden Einsatz heute. Die Darstellung umfasst gleichermaßen die Hardware und das Programmiermodell und beinhaltet eine ausgiebige Bibliografie von Veröffentlichungen im Bereich der Simulation von PDE-Problemen auf GPUs. 217 288 229 Detection and identification of electrons and photons Es ist wichtig, Teilchendetektoren für den Nachweis und die Identifizierung von Elektronen und Photonen bestmöglich zu nutzen, wie es in dieser Arbeit anhand von drei verschiedenen Anwendungsbeispielen für die hochpräzise Messung von Elektronen und Photonen bei Hochenergiephysik- und Teststrahlexperimenten diskutiert wird. Als Erstes wird die Optimierung der Photonenidentifikation beim ATLAS-Detektor am LHC untersucht. Geeignete Auswahlkriterien werden benötigt um prompte Photonen, die aus dem harten Streuprozess der Kollisionen stammen, effizient von Photonen aus hadronischen Jet-Zerfällen zu unterscheiden. Es werden systematische Studien zur Verwendung einer multivariaten Optimierung mit einem Boosted Decision Tree vorgestellt und mit der derzeit verwendeten Optimierung mittels rechteckiger Schnitte verglichen. Zweitens wird der geplante Inner Tracker (ITk) als Upgrade des ATLAS-Detektors für den HL-LHC diskutiert. Der Schwerpunkt der Untersuchungen liegt auf den für die Silizium-Sensormodule vorgesehenen Trägerstrukturen, dem Petal Core. Die thermo-mechanische Charakterisierung des Petals wird mittels Infrarot-Thermographie, zweiphasiger CO2-Kühlung und geometrischer Metrologie untersucht, wobei ein gut funktionierendes Design der Haltestruktur innerhalb der ITk-Detektorspezifikationen nachgewiesen wird. Schließlich werden Messungen mit dem Elektronenstrahl der DESY II-Teststrahlanlage vorgestellt, um das Potenzial der Material Budget Imaging-Technik zu untersuchen. Ziel dieser neuen Technik ist es, die Materialverteilung von Proben zu rekonstruieren, indem die Ablenkwinkel der gestreuten Elektronen mit den hochauflösenden Strahlteleskopen gemessen werden, wobei der zugrundeliegende Effekt der Vielfach-Coulomb-Streuung ausgenutzt wird. Die Ergebnisse hinsichtlich der Bestimmung der charakteristischen Strahlungslänge mehrerer Materialproben sowie der zweidimensionalen Verteilung des Materialbudgets von komplexen Verbundstrukturen werden diskutiert. 218 458 400 Structural changes in social, economic and political systems influence the transport demand at infrastructural level, just as individual decisions of road users have an impact on the structures of these systems. The dynamics of these systems are usually observed in a long-term horizon. Behavioural changes and decision-making processes of individual, heterogeneous road users at spatial, infrastructural level can only be examined in a short-term horizon. The developed feedback approach between a Macroscopic Extrapolation (MEP) and a Microscopic Transport Simulation (MTS) is so far the only transport modelling approach, which considers different dynamical systems. This modelling instrument enables a strategic transport forecast for a long-term horizon and does not lose beyond the spatial context. The long-term, structural changes of the overall system are illustrated by MEP, the MTS, however, shows short-term changes in decisions of road users at infrastructural level. By MTS, the spatial context is used to adapt the spatially influenced parameters in the MEP. By contrast, the MEP serves to update the constraints and spatial structures in the MTS. As a result, the two dynamics simulations are fed back to each other for mutual adaption. The present research work demonstrates the basic functionality of the developed, strategic modelling instrument. The approach is suitable to analyse the behaviour of large, complex transport systems at aggregated and disaggregated levels in a long-term horizon. The approach does not only use different levels of aggregation and accordingly works with two different analysis measures, it also takes into account two temporal observation horizons. In addition, this approach enables to assess the effects of external constraints, such as political interventions, on the observed transport system in a long-term horizon at aggregated level, but also point-in-time at infrastructural level. The operability of the developed approach is demonstrated in the framework of a case example focussing on the courier, express and parcel (CEP market) in Berlin. For this purpose, the System Dynamics (SD) approach developed by Forrester (1958) is used as a MEP. In addition, the microscopic, agent-based transport simulation MATSim developed by Balmer et al. (2009) is used as a MTS. The formalisation, parametrisation and calibration of the feedback approach concerning the case example is shown in detail. Besides to the basis scenario for long-term forecasting CEP transport in Berlin, measure scenarios are developed, which extend the observed system with selected transport policy and logistics measures to regulate the CEP transport in urban areas. These are the measures package stations, distance toll and cordon toll. Finally, the simulation results of the developed Strategic Transport Forecast are evaluated and discussed. In this context, the results of the measure scenarios are compared with the results of the basis scenario to show the effects of the selected measures on the overall system CEP transport in urban areas. Strategische Verkehrsprognose 219 135 146 Beiträge zur Darstellung binärer und ternärer Nitride der Elemente Ga, Ru, Rh, Pd, Au, U This PhD thesis contents investigations of the synthesis of binary and ternary nitrides with the elements Ga, Ru, Rh, Pd, Au and U. The ternary systems Li-M-N (M = Ru, Rh, Pd, U), Na-M-N (M = Ga, Ru, Rh, Pd, U) Ca-U-N and Sr-Au-N were discussed.The compounds LiUN2, Li2UN2 and (Ca0,25U0,75)N0,96 were determined by using x-ray powder diffraction and neutron scattering methods.The formation of ternary nitrides were not investigated in the systems Li-M-N (Ru, Rh, Pd) and Na-M-N (M = Ga, Ru, Rh, Pd, U). Reactions of NaNH2 with Rh have shown the formation of Na3RhH6, which was determined with single crystal techniques. Reactions of Na/NaNH2/NaN3-mixtures with Ga were used to obtain crytalline a-GaN. At lower temperatures the formation of NaGa(NH2)NH was investigated.The structures of SrAu5, Ga3Ni2, K11[(SiO4)2](OCN)2H were determined by using single crystal methods. Die Dissertation beinhaltet Untersuchungen zur Darstellung binärer und ternärer Nitride der Elemente Ga, Ru, Rh, Pd, Au und U. Die Systeme Li-M-N (M = Ru, Rh, Pd, U), Na-M-N (M = Ga, Ru, Rh, Pd, U), Ca-U-N und Sr-Au-N werden diskutiert.Hervorzuheben sind die Verbindungen LiUN2, Li2UN2 und (Ca0,25U0,75)N0,96, die mittels Röntgenbeugungs- und teilweise mit Neutronenbeugungsmethoden charakterisiert wurden. In den Systemen Li-M-N (Ru, Rh, Pd) und Na-M-N (M = Ga, Ru, Rh, Pd, U) wurde die Bildung ternärer Nitride nicht beobachtet. Umsetzungen von NaNH2 mit Rh führten zur Bildung von Na3RhH6, das mit Röntgenbeugungsmethoden an Einkristallen untersucht werden konnte. Umsetzungen von Na/NaNH2/NaN3-Gemengen mit Ga führten in Abhängigkeit von der maximalen Reaktionstemperatur zur Bildung von einkristallinem a-GaN oder zur Bildung von NaGa(NH2)NH.Desweiteren konnten die Strukturen von SrAu5, Ga3Ni2, K11[(SiO4)2](OCN)2H mittels Einkristallröntgenstrukturanalyse bestimmt werden. 220 265 240 Numerical study of magnetic impurities in graphene and steady-state transport in quantum impurity systems The question of the low-temperature behavior of magnetic impurities in host materials has never been more relevant than today with the turn towards nanoscale and spintronic devices. A quantitative understanding of these so-called `quantum impurity systems' is indispensable. In the first part of this thesis, we look at the particular case of single carbon vacancies in graphene motivated by recent experiments. We review the formation of local magnetic moments, and how these moments can be screened by the pseudogap density of states of graphene. Screening is possible due to the innate rippling of graphene that lifts the orthogonality between local orbitals and bands. We use an effective two-orbital model to describe the relevant local orbitals, and employ Wilson's Numerical Renormalization Group (NRG) technique as our numerical method of choice. We show that the experimental data are fully explained by assuming a hybridization strength depending on the rippling. In the second part of this thesis, we turn towards non-equilibrium steady-state transport. We discuss the time-dependent extension to the NRG as well as its adaption to the steady-state, dubbed Scattering States NRG (SNRG). We present a model for the helical edge states that are present on the surface of a Quantum Spin Hall Insulator. We employ the SNRG and review our results for the backscattered current if the edge electrons are subject to an anisotropic spin exchange coupling. Finally, we discuss our idea for a novel adaption of the NRG directly for steady-state quantum impurity problems based on Hershfield's understandings of the steady-state. Die Frage nach dem Verhalten magnetischer Störstellen in Materialien bei tiefen Temperaturen ist aktueller als je zuvor bedingt durch den Schritt hin zu Nanotechnologie und Spintronik. Im ersten Teil dieser Arbeit befassen wir uns mit Störstellen in Graphen motiviert durch experimentelle Arbeiten. Die angesprochenen Störstellen entstehen, wenn einzelne Kohlenstoffatome aus der Gitterstruktur gelöst werden. Wir fassen zusammen, wie in solchen Defekten magnetische Momente entstehen, und, wie diese Momente durch die Zustandsdichte von Graphen abgeschirmt werden. Ein Abschirmen ist erst durch die Wölbung des Materials an der Störstelle möglich, da hierdurch die Orthogonalität zwischen den lokalisierten Orbitalen und den Bändern aufgehoben wird. Wir verwenden ein effektives Modell bestehend aus zwei Orbitalen, um die Störstelle zu beschreiben. Als numerische Methode kommt Wilsons Numerische Renormierungsgruppe (NRG) zum Einsatz. Wir zeigen, dass die experimentellen Befunde mittels einer variablen Kopplungsstärke zwischen lokalen Orbitalen und Bändern beschrieben werden können. Im zweiten Teil der Arbeit wenden wir uns Stromtransport im stationären Zustand zu. Wir führen die zeitabhängige NRG ein sowie die Scattering States NRG (SNRG), ihre Erweiterung für den stationären Zustand. Wir präsentieren ein Modell für die Oberflächenmoden eines Quanten Spin Hall Isolators, die unterschiedliche Helizität aufweisen. Wir verwenden die SNRG, um den Rückstreustrom zu berechnen, wenn diese Oberflächenmoden mittels (anisotroper) Austauschwechselwirkung gekoppelt sind. Zum Schluss stellen wir unsere Überlegungen zu einer völlig neuartigen Erweiterung der NRG vor. Aufbauend auf Überlegungen von Hershfield zum stationären Zustand versuchen wir die Konstruktion einer NRG direkt für den stationären Zustand. 221 274 206 Methods and aspects for conductivity analysis of insulating materials in cable technology and for insulation coordination in high-voltage direct current transmission (HVDC) systems Methoden und Aspekte zur Leitfähigkeitsanalyse von Isolationsmaterialien der Kabeltechnologie und zur Isolationskoordination für Systeme der Hochspannungsgleichstromübertragung (HGÜ) The operational conditions and the dynamic behaviour of modular multilevel converters (MMC) in high-voltage direct current (HVDC) systems lead to novel types of stress for the insulation. Therefore, and with respect to insulation coordination, a method for the design of necessary air clearances and the atmospheric correction of design voltages is presented for HVDC-systems. In the following, a simulation-based analysis of exemplarily resulting overvoltages at the cable sealing end respectively the overhead line terminal during pole-to-ground faults of a MMC-HVDC (symmetrical monopole, half-bridge topology) are carried out and concepts for a synthetic laboratory imitation of these voltages are discussed. The electric field distribution prior to dynamic events is significant in order to evaluate associated consequences for insulation concepts of HVDC systems. Therefore, methods for conductivity analysis gain in importance. For this purpose, an automated, modular, scalable and upgradeable test system is presented. The following introduced general modelling techniques allow the definition of requirements for accurate conductivity analysis under consideration of the electrical properties of the test setup and the electrical field distribution within guarded electrode arrangements. In addition, and under consideration of the time-dynamic of the absorption current, novel analysis and denoising routines for measurement data are presented. These methods allow an enhanced identification of the dielectric time domain response function of the investigated test sample. Within experimental studies of LSR- und XLPE-test samples, the overall performance of the test system and the novel analysis methods is successfully shown. Additional extensions of the test system for future investigation close this thesis. Die Betriebsbedingungen und das dynamische Betriebsverhalten von Modularen Multilevel-Umrichtern (MMC) in Systemen der Hochspannungsgleichstromübertragung (HGÜ) führen zu neuartigen Isolationsbeanspruchungen. Daher wird zunächst im Themenfeld der Isolationskoordination ein Verfahren zur Dimensionierung erforderlicher Luftstrecken und der klimatischen Korrektur von Auslegungsspannungen für HGÜ-Systeme vorgestellt. Darüber hinaus werden simulativ und exemplarisch die bei einem Pol-Erde-Schluss auftretenden Überspannungen einer MMC-HGÜ (symmetrischer Monopol, Halbbrücke) am Freileitungs- respektive Kabelabgang analysiert und Konzepte zur synthetischen Labornachbildung dieser Spannungen diskutiert. Die elektrische Feldverteilung vor transienten Beanspruchungen ist von Relevanz, um die Auswirkungen von Überspannungen auf Isolationssysteme der HGÜ bewerten zu können. Hierzu rücken Verfahren der Leitfähigkeitsanalyse in den Fokus, sodass zu diesem Zweck ein automatisiertes, modulares, skalier- und erweiterbares Versuchskonzept präsentiert wird. Die nachfolgend eingeführten allgemeinen Modellierungsmethoden dienen der Formulierung der Voraussetzungen einer präzisen Leitfähigkeitsbestimmung aus messtechnisch-theoretischer und feldtheoretischer Sicht. Additiv werden neuartige Analyse- und Entrauschungsmethoden präsentiert, die eine Berücksichtigung der Zeitabhängigkeit des erfassten Absorptionsstroms ermöglichen und die Rückschlussmöglichkeit auf die dem Werkstoff zu Grunde liegende dielektrische Antwortfunktion steigern. Im Zuge von experimentellen Untersuchungen von LSR- und VPE-Prüfkörpern werden die Leistungsfähigkeit der Versuchstechnik sowie der neuartigen Trend- und Steigungsanalysen bestätigt und Erweiterungen der Prüfumgebung für zukünftige Untersuchungen angeregt. 222 359 344 Structural and biochemical characterization of the Rod-Zwilch-Zw10 complex The 3-subunit Rod-Zwilch-Zw10 (RZZ) complex is a crucial component of the spindle assembly checkpoint (SAC) in higher eukaryotes. It is required for kinetochore localization of the Mad1/Mad2 checkpoint complex and of the microtubule motor Dynein, thus contributing to kinetochore-microtubule attachment as well as to the Dynein-dependent stripping of SAC components upon checkpoint satisfaction. How the RZZ fulfills these different roles and integrates signals from the kinetochore-microtubule interface remains unclear. In my doctoral thesis, I report the successful recombinant production and a preliminary crystallographic analysis of the 813 kDa RZZ complex from coexpression of its three subunits Rod, Zwilch, and Zw10. Additionally the organization and function of the RZZ complex was studied by using a multidisciplinary approach that combines structural biology and biochemistry. Cryo electron microscopy combined with cross-linking mass spectrometry analysis provided insight into the structural organization of the RZZ complex. The resulting molecular model shows that the RZZ complex is a 2:2:2 hexamer in which the two Rod molecules form an elongated antiparallel dimer. At either end of the structure the Rod heads interact with Zwilch, using both the N-terminal beta-propeller domain, and its C-terminal region. Zw10 bridges the middle parts of both Rod molecules. Together, Rod, Zwilch and Zw10 create a very extensive dimerization interface that explains the stoichiometry of the complex. Furthermore, I describe an extensive series of interaction studies of the RZZ complex with other kinetochore components that have been suggested to be involved in the RZZ function. I demonstrate for the first time a direct interaction between the RZZ complex and Spindly that strictly depends on farnesylation of the C-terminal CAAX-box of Spindly. Our studies pave the way to a detailed structural and functional characterization of the RZZ complex and support a model by which Spindly farnesylation promotes its interaction with kinetochores and mediates its biological function. We propose that upon SAC activation Spindly becomes farnesylated by a Farnesyltransferase and binds to the RZZ complex. This in turn enables further recruitment of Dynein/Dynactin to the kinetochore. Upon binding of the minus-end directed motor protein Dynein, checkpoint proteins are transported away from kinetochores towards the spindle poles. In höher entwickelten Eukaryoten ist der aus drei Proteinen bestehende Rod- Zwilch-Zw10 (RZZ) Komplex essentieller Bestandteil des “spindle assembly checkpoint” (SAC). Der RZZ-Komplex wird für die Lokalisation des Mad1/Mad2 SAC Komplexes sowie des Microtubuli Motorproteins Dynein benötigt. Dadurch trägt der RZZ-Komplex zur Ausbildung von Kinetochor-Microtubuli-Bindungen bei. Außerdem ist der RZZ-Komplex in den Prozess involviert bei dem SAC Proteine in Abhängigkeit von Dynein vom Kinetochor weg zu den Spindelpolen transportiert werden, sobald der SAC zufrieden gestellt ist („kinetochore shedding“). Wie genau der RZZ-Komplex diese unterschiedlichen Funktionen erfüllt und Signale von der Kinetochor-Microtubuli Schnittstelle integriert ist bislang nicht bekannt. In meiner Doktorarbeit beschreibe ich die erfolgreiche Aufreinigung des rekombinant hergestellten, 813 kDa großen RZZ-Komplexes sowie dessen vorläufige kristallographische Analyse. In einem multidisziplinären Ansatz bestehend aus strukturbiologischen und biochemischen Methoden habe ich die strukturelle Organisation und Funktion des RZZ-Komplexes untersucht. Eine Kombination aus Kryo Elektronenmikroskopie und quervernetzender Massenspektroskopie Analyse führte zu Erkenntnissen über die strukturelle Organisation des RZZ-Komplexes. Das herausgearbeitete Modell zeigt, dass der RZZ-Komplex ein Hexamer mit einer 2:2:2 Stöchiometrie bildet. Darin formen zwei Rod Moleküle ein längliches antiparalleles Dimer. An beiden Enden der Struktur betten der C-Terminus und der N-Terminale beta-propeller von zwei unterschiedlichen Rod Molekülen ein Zwilch Molekül zwischen sich ein. Zw10 verbindet die zentralen Bereiche von beiden Rod Molekülen miteinander. Zusammen bilden Rod, Zwilch und Zw10 eine extensive Dimer-Berührungsfläche aus. Außerdem beschreibe ich in meiner Arbeit umfangreiche Interaktionsuntersuchungen zwischen dem RZZ-Komplex und anderen Kinetochor Proteinen, welche möglicherweise die RZZ Funktionen beeinflussen. Ich zeige in meiner Arbeit erstmals, dass eine direkte Binding zwischen dem RZZ-Komplex und Spindly stattfindet und dass diese von der Farnesylierung der C-terminalen CAAX-Box von Spindly abhängt. Diese Untersuchungen ebnen den Weg zu einer detaillierten strukturellen und funktionalen Untersuchung des RZZ-Komplexes und favorisieren ein Modell, in welchem der Prozess des „kinetochore shedding“ Farnesylierung von SpindlyZusammenfassung 13 erfordert. Unser Modell schlägt vor, dass nach SAC Aktivierung Spindly farnesyliert wird und daraufhin an RZZ bindet. Das wiederum ermöglicht die Bindung von Dynein/Dynactin. Durch die Binding des zum Minus-Ende gerichteten Motorproteins Dynein werden SAC Proteine vom Kinetochore weg und zu den Spindlepolen hin transportiert. 223 143 162 This thesis investigates university social responsibility as mediated content of the Projektstudium courses of the bachelor study programme rehabilitation pedagogy of TU Dortmund University as well as Service Learning projects of the University Duisburg- Essen. In the course of societal change, tasks of educational institutions and their teaching concepts also change. In order to take responsibility for society and to educate responsibly acting citizens, university social responsibility may offer a strategy for universities. For its analysis, an orientational framework has been derived from theory. Based on this framework, an interview guide as well as a category system for its evaluation have been created. Results show university social responsibility being an actual mediated content of teaching concepts. The Projektstudium courses show higher impact on development of self-responsibility and competencies, whereas Service Learning projects rather focus on responsibility for society by means of direct services. Soziale Verantwortung – ein Aspekt für Lehrformate der tertiären Bildung? 224 186 194 The attitudes towards effectiveness and adaptability of older workers and the personally perceived discrimination? a study in Swiss companies This study aimed at investigating the relationship between the observed personnel practices of training participation in Switzerland and the attitudes towards older employees. A German version of the 'Beliefs about older workers' questionnaire was applied in two organizations to cross check the known results from literature in a Swiss region. 154 subjects participated in study. More favorable attitudes in comparison to other international studies were found. Supervisors as well as employees themselves do not think that older employees are less efficient workers or less efficient learners. Instead, more differentiating attitudes are shown: while the attitude towards the efficiency of working increases with age, attitudes towards the adaptability and trainability of older employees look more like a inverted ushaped relationship. Employees above 60 tend to be more negative in respect to their own adaptability and trainability. Finally, older employees do feel more discriminated against with age than their supervisors. In summary the results suggest that there is no overall negative attitude towards older employees but a differentiating consideration. Die Einstellungen zur Leistungs-, Lern- und Anpassungsfähigkeit älterer Arbeitnehmer/-innen und die subjektiv erlebte Diskriminierung 225 234 183 Hyperon production in proton-nucleus collisions at a center-of-mass energy of sqrt(S_NN)=41.6 GeV at HERA-B and design of silicon microstrip detectors for tracking at LHCb The topics of this thesis are the measurements of hyperon production in proton-nucleus collisions at a center-of-mass energy of 41.6 GeV with the Hera-B detector located at DESY, Hamburg (Germany), and the design of silicon microstrip sensors for the LHCb experiment at CERN, Geneva (Switzerland). Lambda, Xi and Omega hyperons and their antiparticles were reconstructed from 113.5*10^6 inelastic collisions of protons with fixed carbon, titanium and tungsten targets. With these samples, antiparticle-to-particle ratios, cross sections integrated for the accessible kinematic region of Hera-B and single differential cross sections as function of transverse momentum, $d\sigma/dp_T^2$ (for Lambda and Xi) and rapidity, $d\sigma/dy$ (for Lambda only), have been been measured as well as the dependence of these quantities on the atomic number of the target nucleus, as parameterized using the Glauber model. The obtained ratios follow the same trend as found for the energy dependence of measurements from nucleus-nucleus collisions. Silicon microstrip sensors have been designed for the tracking system of the LHCb detector. Evaluating the performance in beam tests at CERN, the strip geometry and sensor thickness were varied optimizing for a large signal-to-noise ratio, a small number of read-out channels and a low occupancy. The detector is currently being built to be operational for first proton-proton collisions in autumn 2007. Themen dieser Arbeit sind Messungen von Hyperonenproduktion in Proton-Kern-Wechselwirkungen bei 41.6 GeV Schwerpunktsenergie mit dem Hera-B-Detektor am DESY, Hamburg, und das Design von Siliziumstreifensensoren für das LHCb-Experiment am CERN, Genf (Schweiz). Lambda-, Xi- und Omega-Hyperonen und ihre Antiteilchen wurden in 113.5*10^6 inelastischen Wechselwirkungen von Protonen mit festen Kohlenstoff-, Titan- und Wolfram-Targets rekonstruiert. Mithilfe dieser Datensätze konnten Antiteilchen-zu-Teilchen-Verhältnisse, Wirkungsquerschnitte sowohl über den kinematischen Messbereich von Hera-B integriert als auch differenziell als Funktion des Transversalimpulses, $d\sigma/dp_T^2$ (für Lambda und Xi), und der Rapidität, $d\sigma/dy$ (nur für Lambda), gemessen werden, sowie die Abhängigkeit dieser Messgrößen von der Massenzahl des Targetkerns, parametrisiert nach dem Glauber-Modell. Die gemessenen Verhältnisse folgen dem gleichen Trend wie die Energieabhängigkeit der entsprechenden Messungen in Kern-Kern-Wechsel-wirkungen. Silizumstreifensensoren wurden für das Spurrekonstruktionssystem des LHCb-Detektors entwickelt. Unter Zuhilfenahme von am CERN durchgeführten Strahltests wurde der Einfluss der Streifengeometrie und der Substratdicke auf die Eigenschaften des Sensors ermittelt, um das Optimum unter den gegensätzlichen Erfordernissen eines hohen Signal-zu-Rauschen-Verhältnisses, einer kleinen Anzahl an Auslesekanälen und einer niedrigen Spurbelegungsdichte zu erzielen. Der Detektor befindet sich momentan in der Bauphase, der Beginn des Messbetriebs ist für Herbst 2007 geplant. 226 145 125 Modelling and simulation of phase transformations in elasto-plastic polycrystals In this work, a new framework for the simulation of shape memory alloys (SMA) and TRIP steels undergoing martensite-austenite phase-transformations is introduced. The goal is the derivation and elaboration of a generalised model which facilitates the reflection of the characteristic macroscopic behaviour of SMA as well as of TRIP steels. The foundation of the overall formulation is a scalar-valued, thermodynamically consistent, statistical physics based model for the simulation of SMA. As this work proceeds, the model is implemented in affine and non-affine micro-sphere formulations in order to capture polycrystalline behaviour and to simulate three-dimensional boundary value problems. Moreover, a coupling to plasticity is introduced, additionally enabling the capturing of the macroscopic behaviour of TRIP steels. Finally, the implementation of a three-dimensional finite-deformation phase-transformation model that focuses on representative transformation directions is elaborated in a thermo-elastoplastic framework. Die vorliegende Arbeit behandelt einen neuartigen Modellierungsrahmen zur Simulation von austenitisch-martensitischen Phasentransformationen in Formgedächtnislegierungen (SMA) und TRIP-Stählen. Das Ziel der Arbeit ist die Entwicklung und Ausarbeitung eines generalisierten Modells, welches das charakteristische makroskopische Verhalten sowohl von SMA als auch von TRIP-Stahl abbildet. Als Basis für die Formulierung dient ein skalarwertiges, thermodynamisch konsistentes, auf statistischer Physik basierendes Modell für die Simulation von SMA. Im Verlauf dieser Arbeit wird das Modell in affine und nicht-affine Microsphere-Formulierungen eingebettet um das polykristalline Materialverhalten abzubilden und um die Simulation dreidimensionaler Randwertprobleme zu ermöglichen. Darüberhinaus wird eine Kopplung an Plastizität vorgestellt, welche zusätzlich die Abbildung des Verhaltens von TRIP-Stahl ermöglicht. Abschließend wird die Implementierung eines dreidimensionalen Phasentransformationsmodells für finite Deformationen mit dem Fokus auf repräsentative Transformationsrichtungen in einem thermo-elastoplastischen Framework gezeigt. 227 193 173 Algorithmische Konstruktionen von Gittern The main objective of this thesis is a classification project for integral lattices. Using Kneser's neighbour method we have developed the computer program tn to classify complete genera of integral lattices. Main results are detailed classifications of modular lattices in dimensions up to 14 with levels 3,5,7, and 11. We present a fast meta algorithm for the computation of a basis of a lattice which is given by a large generating system. A theoretical worst case boundary and practical experiments show important advantages in comparison to traditional methods. Up to small modifications we use this algorithm for the decomposition of a lattice into pairwise orthogonal sublattices. As a further result we prove a covering theorem for the generating system of a lattice. Let S be a minimal generating system of a lattice of rank n with generators not larger than B. Then S has at most n + log_2(n!(B/M)^n) elements. We describe and compute invariants of a lattice L like the spectrum of the discrete Fourier transform of the length function on L/2L. The numerical computation of a lattice quantizer and a quantizer of a union of cosets of a lattice are discussed. Im Mittelpunkt dieser Arbeit steht ein Klassifikationsprojekt aus dem Gebiet der ganzzahligen Gitter. Ausgehend von Knesers Nachbarmethode wurde das Computerprogramm tn entwickelt, mit dem eine Vielzahl vollständiger Geschlechtern ganzzahliger Gitter klassifiziert wurden. Hauptergebnisse sind die Klassifikation modularer Gitter in Dimensionen bis zu 14 mit den Stufen 3,5,7 und 11. Wir stellen einen Meta-Algorithmus zur Berechnung einer Gitterbasis aus einem großen Erzeugendensystem vor. Sowohl exakte Worst-Case Abschätzungen als auch praktische Versuche zeigen die Vorteile des Verfahrens gegenüber den bisher verwendeten Methoden. Es wird ein effektiver Algorithmus präsentiert, der eine Zerlegung eines Gitters in eine direkte Summe paarweise orthogonaler Untergitter berechnet. Ein weiteres Ergebnis ist ein Überdeckungssatz für minimale Erzeugendensysteme. Ein minimales Erzeugendensystem eines Gitters vom Rank n mit Minimum M und Erzeugenden mit durch B beschränkter Norm besteht aus höchtens n + log_2(n!(B/M)^n) Vektoren. Es werden Invarianten eines Gitters L beschrieben und berechnet wie die Spektralkoeffizienten der diskreten Fouriertransformierten der Längenfunktion auf L/2L. Die numerische Behandlung des zwiten normalisierten Trägheitsmomentes von Gitterquantizern und Quantizern der Vereinigung von Gitternebenklassen wird diskutiert. 228 228 177 Development of the Monte Carlo event generator tuning software package Lagrange and its application to tune the PYTHIA model to the LHCb data One of the general problems of modern high energy physics is a problem of comparing experimental data, measurements of observables in high energy collisions, to theory, which is represented by Monte Carlo simulations. This work is dedicated to further development of the tuning methodology and implementation of software tools for tuning of the PYTHIA Monte Carlo event generator for the LHCb experiment. The aim of this thesis is to create a fast analytical model of the Monte Carlo event generator and then fitting the model to the experimental data, recorded by the LHCb detector, considering statistical and computational uncertainties and estimating the best values for the tuned parameters, by simultaneous tuning of a group of phenomenological parameters in many-dimensional parameter-space. The fitting algorithm is interfaced to the LHCb software framework, which models the response of the LHCb detector. Typically, the tunings are done to the measurements which are corrected for detector effects. These corrections depend on the model which is input into the detector simulation, and the proposed approach allows to avoid this dependence. This tuning methodology and the developed software tools were tested on a small subset of kinematical parameters, which describe the gross fraction of the hadronic final states in high energy pp-collisions. Eines der allgemeinen Probleme der modernen Hochenergiephysik besteht darin experimentelle Daten, also Messungen von Observablen in Hochenergie-Kollisionen, mit Ergebnissen der Theorie zu vergleichen, die aus Monte Carlo Simulationen hervorgehen. Die vorliegende Arbeit widmet sich der Weiterentwicklung der Tuning-Methodik und dem Implementieren von Softwarewerkzeugen zum Tunen des PYTHIA Monte Carlo Event Generators für das LHCb-Experiment. Das Ziel ist ein schnelles analytisches Modell des Monte Carlo Event Generators zu erstellen und dann dieses Modell an die vom LHCb Detektor aufgenommenen Daten anzupassen, dabei statistische wie numerische Fehler zu berücksichtigen, und die besten Schätzwerte für die zu tunenden Parameter durch ein simultanes Tuning einer Gruppe von phänomenologischen Parameter im vieldimensionalen Parameterraum zu erhalten. Der Anpassungsalgorithmus hat eine Schnittstelle zum LHCb-Software-Framework, welches das Ansprechen des Detektors modelliert. Üblicherweise werden für die Tunings Messungen verwendet, die auf Detektoreffekte korrigiert sind. Diese Korrekturen sind aber abhängig von den in den Detektorsimulationen verwendeten Modellen, was der vorgeschlagene Ansatz umgeht. Diese Tuningmethode und die entwickelten Softwarewerkzeuge wurden mit einer kleinen Anzahl von kinematischen Parametern getestet, welche den größten Teil der hadronischen Endzustände von Hochenergie-Kollisionen beschreibt. 229 390 452 Automatisierte Komposition und Konfiguration von Workflows zur Planung mittels kombinatorischer Logik If an adjustment requirement is identified in a factory system, an adaptation process must be started. This usually includes a planning phase in which a project team develops a procedure for making the adjustment. While production, logistics and manufacturing processes have already been and are automated to a large extent, the development of such a planning process still takes place manually and individually to a large extent. The planning team develops the required plan manually and as required. The creation of a plan tailored to the project results from the specific requirements of each (adaptation) project. The creation of the plan itself under these requirements, however, takes place according to recognizable patterns. The aim of the dissertation is to develop a possibility to automate the creation of plans and the planning itself by developing a procedure (or a software), which makes it possible to generate plans dynamically under consideration of previously given basic conditions according to demand. In order to generate processes dynamically, the project follows a modular principle. A collection of standardized process modules is defined from which complex processes and plans can be assembled. The idea is comparable to a Lego construction kit. Similar to how such building blocks can be combined to almost any object, the process modules can result in any desired process. At the end of the dissertation project, software is to be developed that automatically delivers the appropriate workflow for each project. The planner only enters basic project information (e.g. budget and time restrictions) and receives a selection of possible plans for the realization of the project. If events occur during the execution of the plan that make plan adjustments necessary, this can also be carried out automatically by regenerating the plan. To achieve this goal, methods of combinatorial logic and constraint solving are used. By using combinatorial logic, software synthesis has already been successfully performed at the Chair of Software Engineering. This means that individual programs can be generated from a given set of software components. Constraintsolving, on the other hand, refers to procedures for the determination of solutions for (mathematical) problems under consideration of restrictive constraints. These two technologies are to be combined in an extension of common project planning software. In addition, by using suitable code generation frameworks, the applications needed to implement the respective plan are to be automatically generated. Wird in einem Fabriksystem ein Anpassungsbedarf erkannt, muss ein Anpassungsprozess gestartet werden. Ein solcher Prozess beinhaltet in der Regel eine Planungsphase, in der ein Projektteam ein Vorgehen erarbeitet, wie die Anpassung vorzunehmen ist. Während Produktions-, Logistik- und Fertigungsprozesse bereits weitgehend automatisiert wurden und werden, findet die Entwicklung eines solchen Planungsprozesses in der Regel nach wie vor manuell und individuell statt. Das Planungsteam entwickelt den jeweils benötigten Plan von Hand und nach Bedarf. Die auf das Projekt zugeschnittene Planerstellung ergibt sich aus den spezifischen Anforderungen, die jedes (Anpassungs-) Projekt mit sich bringt. Die Erstellung des Plans erfolgt unter diesen Anforderungen allerdings nach wiedererkennbaren Mustern. Ziel der Dissertation ist es, eine Möglichkeit zu entwickeln, das Erstellen von Plänen und das Planen zu automatisieren. Hierzu soll ein Verfahren (bzw. eine Software) entwickelt werden, das die Möglichkeit bietet, Pläne unter Berücksichtigung von zuvor angegebenen Rahmenbedingungen dynamisch nach Bedarf zu generieren. Um Prozesse dynamisch zu generieren, folgt das Projekt einem Baukastenprinzip. Es wird eine Sammlung von standardisierten Prozessmodulen definiert, aus denen sich komplexe Prozesse und Pläne zusammenfügen lassen. Die Idee ist vergleichbar mit einem Lego-Baukasten. So wie solche Bausteine je nach Wunsch zu beinahe jedem beliebigen Objekt zusammengefügt werden können, sollen auch die Prozessmodule jeden gewünschten Prozess abbilden können. Am Ende des Projektes soll eine Software entstehen, die für jedes Projekt automatisch den passenden Workflow liefert. Ein Projektplaner gibt nur noch grundlegende Informationen (z.B. Budget- und Zeitbeschränkungen) an und erhält eine Auswahl an möglichen Plänen zur Realisierung des Projektes. Treten während der Durchführung des Plans Ereignisse auf, die Plananpassungen notwendig machen, können auch diese durch eine Neugenerierung des Plans automatisiert durchgeführt werden. Um dieses Ziel erreichen zu können, werden Methoden der kombinatorischen Logik und des Constraintsolvings genutzt. Durch die Nutzung der kombinatorischen Logik wird am Lehrstuhl für Software Engineering der TU Dortmund bereits erfolgreich Softwaresynthese betrieben, was bedeutet, dass aus einer gegebenen Menge unterschiedlicher Software-Komponenten individuelle Programme generiert werden können. Constraintsolving wiederum bezeichnet Verfahren zur Ermittlung von Lösungen für (mathematische) Probleme unter Berücksichtigung von einschränkenden Nebenbedingungen (Constraints). In dieser Arbeit werden beiden Technologien in einer Erweiterung eines gängigen Projektplanungverfahrens zusammengeführt. Dazu wird zunächst auf die modernen Herausforderungen der Fabrikplanung im Kontext der Industrie 4.0 eingegangen. Es wird gezeigt, warum Bedarf nach modernen, schnellen und flexiblen Planungsansätzen besteht und wie die Informatik diese unterstützen kann. Im weiteren Verlauf der Arbeit werden dann die methodischen und theoretischen Grundlagen der Fabrikplanung dar- und mögliche Planungssystematiken zur Umsetzung von automatisierter Plan-Generierung vorgestellt. Anschließend werden Technologien aus dem Bereich der Synthese und des Constraintsolving erörtert und in einer prototypischen Softwareanwendung zusammengeführt. Den Abschluss der Arbeit bildet eine Reihe von Experimenten, die das in dieser Arbeit erarbeitete Vorgehen anhand realer Planungsszenarien validieren. 230 172 121 Research of work and interaction processes by means of video recordings Zur Untersuchung von Arbeits- und Interaktionsprozessen anhand von Videoaufzeichnungen Audiovisual media and productions play an increasingly important role in our daily life. Nevertheless, the opportunities and implications involved in making audiovisual records the basis of social scientific research have so far been largely ignored. Established forms of data and research fall short whenever the aim is to describe and analyze ephemeral processes of association - be they work related or not. In this paper, a research strategy based on audiovisual records is argued for. This replaces post-facto reconstructions with in video documentation and thus opens up new ways of analysis. It is proposed that this approach has to be combined with an analytic strategy whose categories are based on whatever is relevant to the participants involved in the interactions themselves. Pursuing such a strategy, however, new issues relating to methods and technical realization emerge that have to be dealt with. These issues are discussed and described by reporting on two case studies of telecooperation solutions for the more technical problems. Audiovisuelle Medien und Darstellungsformen nehmen in unserem (Arbeits-)Alltag einen größer werdenden Raum ein. Die Möglichkeiten und Implikationen des Einsatzes von audiovisuellen Aufzeichnungen in der sozialwissenschaftlichen Forschung sind aber bislang vernachlässigt worden. Dabei stoßen etablierte Forschungsstrategien an Grenzen, wenn es um die Beschreibung und Analyse flüchtiger Arbeits- und Interaktionsprozesse geht. Ein alternatives Vorgehen besteht darin, audiovisuelle Dokumentationen zum Ausgangspunkt zu machen. Dies muß mit einer Analysestrategie verbunden werden, deren Kategorien auf dem aufbauen, was für die Beteiligten selbst von handlungsleitender Relevanz ist. Allerdings stellen sich bei einem solchen Vorgehen methodische Fragen und technische Schwierigkeiten. Der vorliegende Beitrag behandelt diese Fragen und zeigt anhand von zwei Fallstudien zu Telekooperation Lösungen für technische Probleme auf. 231 192 175 Abgeformte polymere Mikrostrukturen für die optische Informationstechnik To ensure a wider spreading of optical IT optical waveguides are necessary to switch and split optical signals. Therefore the so called SIGA-technique has been developed for manufacturing polymeric, integrated optical microstructures with low-cost replication techniques.Within this thesis the attention is directed towards the replication techniques as part of the SIGA technique. The two used moulding techniques as injection moulding and hot embossing are described putting up marginal conditions for microstructures in general and integrated optical microstructures in particular.The modified micro injection moulding developed especially for integrated optical microstructures is explained in detail. Close attention is given to the special tools, the used equipment and the processes carried out.The second moulding technique, hot embossing, is usually applied as a lab technique for prototypes, but more and more for difficult structures with special geometries, too, shown by the example of an optical backplane. This backplane, which is several centimetres long (10 to 50 cm), has integrated optical microstructures over its complete length.The optimization for replication of microstructures is described in detail.Application examples, especially from optical information technique, but also from micro fluidics, demonstrate the high potential of micro moulding / micro replication techniques. Für eine stärkere Verbreitung der optischen Informationstechnik werden optische Wellenleiterkomponenten benötigt, die u.a. die Signale optisch schalten und aufsplitten können. Dazu ist die sogenannte SIGA-Technik entwickelt worden, mit der polymere, integriert optische Mikrostrukturen mittels kostengünstiger Replikationstechniken hergestellt werden können.In dieser Arbeit wird dabei auf die Replikationstechniken im Rahmen der SIGA-Technik näher eingegangen. Dazu werden die beiden eingesetzten Abformverfahren des Spritzgießens und Heißprägens dargestellt, mit den Randbedingungen für Mikrostrukturen im allgemeinen und integriert optische Mikrostrukturen im speziellen.Das für integriert optische Mikrostrukturen entwickelte modifizierte Mikrospritzprägen wird ausführlich erläutert, wobei auf die speziellen Werkzeuge, das verwendete Equipment und die damit durchgeführten Prozesse näher eingegangen wird.Das zweite Abformverfahren, das Heißprägen, wird hauptsächlich als Laboranwendung für Prototypen eingesetzt, aber zunehmend auch bei bestimmten empfindlichen Strukturen und besonderen Geometrien, dargestellt am Beispiel einer optischen Rückwand, die über ihre gesamte Länge (10 bis 50 Zentimeter) integriert optische Mikrostrukturen enthält.Ausführlich wird auf Optimierungsmöglichkeiten für die Abformung von Mikrostrukturen eingegangen.Anwendungsbeispiele, vornehmlich aus dem Bereich der optischen Informationstechnik, aber auch aus der Mikrofluidik, demonstrieren das Einsatzpotential der Mikroabformtechnik. 232 242 199 Transfer matrix approach to thermodynamics and dynamics of one-dimensional quantum systems In this thesis thermodynamics of one-dimensional quantum systems is investigated. The one-dimensional quantum model is mapped onto a two-dimensional classical system by a Trotter-Suzuki decomposition. Apart from the usual checkerboard decomposition, a novel Trotter-Suzuki mapping is introduced which leads to a classical model with alternating rows and makes the definition of a one-column transfer matrix possible. Within the transfer matrix approach the thermodynamic limit can be performed exactly. To investigate the transfer matrix especially at low temperatures, a variant of the density-matrix-renormalization group, the so-called TMRG, is used. By applying this method, the t-J model is investigated with special emphasize put on the calculation of correlation lengths to study the crossover from the high-T lattice into the quantum critical regime. Additionally the rich phase diagram is investigated. The numerical results are compared in detail with analytical results from conformal field theory. Furthermore, a spin-orbital model relevant for the transition metal oxide YVO_3 is investigated. A dimerization at finite temperature is found which is driven by the large entropy content of the dimer state. This mechanism seems to explain the stability of the C-phase in YVO_3 which has not been understood before. In the last part a new lattice-pathintegral representation is introduced which makes the calculation of real-time dynamical correlation functions possible without performing an analytical continuation. First results for the spin autocorrelation function of the XXZ-model at infinite temperature are shown. In dieser Arbeit wird die Thermodynamik eindimensionaler Quantensysteme untersucht, indem das eindimensionale quantenmechanische Modell auf ein zweidimensionales klassisches System mittels einer Trotter-Suzuki Zerlegung abgebildet wird. Neben der häufig angewandten Schachbrettzerlegung wird eine neue Trotter-Suzuki Abbildung vorgestellt, die zu einem klassischen Modell mit alternierenden Reihen führt und die Definition einer einspaltigen Quantentransfermatrix erlaubt. Innerhalb des Transfermatrix-Zugangs kann der thermodynamische Limes exakt durchgeführt werden. Um die Transfermatrix insbesondere für tiefe Temperaturen zu untersuchen, wird eine Variante der Dichtematrix-Renormierungsgruppe, die sog. TMRG, verwendet. Mit dieser Methode wird das t-J Modell untersucht, wobei besonderer Wert auf die Berechnung von Korrelationslängen gelegt wird, um den Übergang vom Hochtemperaturbereich in den quantenkritischen Bereich zu studieren. Zusätzlich wird das reichhaltige Phasendiagramm untersucht. Die numerischen Resultate werden detailliert mit analytischen Ergebnissen aus konformer Feldtheorie verglichen. Ferner wird ein für das Übergangsmetalloxid YVO_3 relevantes Spin-Orbital Modell untersucht. Es wird eine Dimerisierung bei endlicher Temperatur gefunden, die durch den zugehörigen Entropiegewinn getrieben wird. Dieser Mechanismus scheint die bisher unverstandene Stabilität der C-Phase in YVO_3 zu erklären. Im letzten Teil wird eine neue Gitter-Pfadintegraldarstellung vorgestellt, die es erlaubt, dynamische Korrelationsfunktionen zu reellen Zeiten ohne analytische Fortsetzung zu berechnen. Erste Resultate für die Spin-Autokorrelationsfunktion des XXZ-Modells bei unendlicher Temperatur werden vorgestellt. 233 362 300 When the § 4 Abs. 4 LPlG NRW came into force in 2010, a new instrument - the Settlement Area Monitoring - was introduced and placed at the interface between regional planning and municipal land-use planning. The new instrument complements the existing planning instruments. Following legal requirements, the six regional planning authorities in North Rhine-Westphalia, in cooperation with the municipalities, are encouraged to implement the monitoring which is mainly focused on the data collection of municipal land reserves in the urban land use plan. This study deals with the methodological development and discussion of the complex planning instrument, taking into account different points of view. Besides the involved stakeholders and their interests related to planning levels, the collection methods, data bases and survey contents are analyzed. Based on the different implementation approaches in the six regions and the harmonization ideas of the state planning authority, recommendations on survey procedures and contents are given. The recommendations are based on an evaluation of two survey cycles in the investigation area Ruhrgebiet, among other things. By integrating the results obtained in the Settlement Area Monitoring into the set of other regional planning instruments, the potential of synergies can be obtained and extensive benefits can be achieved. The result of the study presents a contemporary, modern instrument, the design of which reflects the past years’ discussions and experiences to the fullest. The investigation covers various scientific research fields within the wider research field of spatial planning. The major parts of this work deal with computer- and GIS-based planning tools and methods, with spatial planning, regional planning and GIS-based regional- and data analysis. The focus is on the examination of central spatial planning objectives and principles, on the planning instruments at the interface between regional and land-use planning, and on the nationwide implementation status of the Settlement Area Monitoring. The study includes communication sciences, as well as issues of public construction law, the state and land-use planning and land policy. In addition to answering the research questions, the study contributes to scientific research by the presentation of the methodological development of a complex planning tool. A great emphasis is put on linking scientific knowledge and practical requirements. GIS-gestütztes Siedlungsflächenmonitoring an der Schnittstelle von Regional- und Bauleitplanung 234 175 166 Work-life-balance - new demands or chance for more live quality? Working hours are again under discussion. Economy and politics require an extension of working hours and flexibilisation in the interest of cost reduction. Voices are low that recall another reduction of working hours and a raise of time sovereignty of the employees. The same time questions of balance of work and life are more important, not only as a problem of young working mothers, but as part of internal company personnel planning in general. These are the reasons why such forms of regulation of flexible working hours become more significant, which promise a balance of different time interests. One important option is the implementation of time accounts, that approve flexible overtime and the use of saved time for individual use without extend working hours in general. The study shows working hours models in companies in different branches and the time handling of the employees between internal company demands and private interests. The requirements for a successful balance on both sides is not much developed yet. Balance von Arbeit und Leben 235 134 122 Increasing instability? Tenures and firm employment subsystems (FESS) The article adresses the question of the erosion of internal labour markets and the generalisation of employment risks and precariousness in West and East Germany. Quantitative analyses of firm employment policies and tenure of individuals show a co-existence of long with short and medium term employment and a moderate but significant growth of the latter since the early nineties. The concepts of labour market segmentation and firm employment subsystems (FESS) allow to specify our macrostatistical findings: Most of the dynamics in labour market structures results from endogenous modifications of Closed and Open FESS as part of Internal and External Labour Markets. The conclusion is that we can speak of dynamic segmentation rather than of an erosion of Internal Labour markets and the generalisation of employment risks. Die Ausweitung von Instabilität? 236 200 162 Das Myon-Pretrigger-System für das HERA-B-Experiment For the measurement of the CP violation in the neutral B meson system the HERA-B experiment was built up at the Deutsches Elektronen-Synchrotron (DESY) in Hamburg. An efficient enrichment of muons in the final state is needed for this and other physics measurements. This is done inside the first level of the trigger system by means of the muon pretrigger, which defines starting points for possible muon tracks. The muon pretrigger system ist built up from about 100 specialized hardware modules in order to accomplish the processing of the high input data rate within 1 us. Within the scope of this thesis software is developed for the operation and the testing of the single modules. Furthermore the complete system is integrated into the HERA-B experiment so as to use it for the data taking. This includes the development of online software, realizing the initialization and control of the function of the muon pretrigger system and coordinating the interfaces to other systems. Monitoring information of the online software is used to analyze parameters characterising the functionality of the system. Finally proposals for extending the monitoring are made, which will allow for a future improvement of the already achieved high data quality. Das HERA-B Experiment am Deutschen Elektronen-Synchrotron (DESY) in Hamburg wurde zur Messung der CP-Verletzung im System der neutralen B-Mesonen aufgebaut. Hierfür und für weitere physikalische Zielsetzungen ist ein effizientes Anreichern von Ereignissen mit Myonen im Endzustand erforderlich. Dies geschieht innerhalb der ersten Triggerstufe mit dem Myon-Pretrigger, der Startpunkte für mögliche Myon-Spuren definiert. Um die hohe Dateneingangsrate innerhalb von 1 us verarbeiten zu können, ist das Myon-Pretrigger-System aus etwa 100 spezialisierten Hardware-Modulen aufgebaut. Im Rahmen dieser Arbeit wird Software entwickelt, um einzelne Module betreiben und testen zu können. Weiterhin wird das Gesamtsystem in das HERA-B Experiment integriert, um es für die Datennahme verwenden zu können. Hierzu wird Online-Software entwickelt, die die Initialisierung und Überwachung der Funktion des Myon-Pretrigger-Systems wahrnimmt und Schnittstellen zu anderen Systemen koordiniert. Mit Hilfe von Monitoring-Information der Online-Software werden Parameter untersucht, die die Funktionsweise des Systems charakterisieren. Weiterhin werden Vorschläge für Erweiterungen des Monitorings erarbeitet, die es zukünftig erlauben, die bereits hohe Datenqualität zu steigern 237 348 309 Integrated formal modeling and automated analysis of computer network attacks In the field of formal modeling and analysis as related to computer network security, existing approaches are highly specialized towards either a protocol, node, or network view. Typically, they are even further specialized towards a specific subset of one view (e.g., a certain class of protocols, interactions of local node components, or network propagation of predefined vulnerabilities). Thus, each approach covers only a small part of the aspects related to practical computer network attack scenarios. Often, further restrictions with respect to the dynamics allowed for the model, properties supported or user guidance required during analysis, have to be observed. Multiple approaches, and thus models, formalisms, and analysis tools, need to be employed to provide a more complete view of computer network attack scenarios. Both the modeling task and the analysis task have to be done multiple times and it is hard to ensure the consistency of the models and analysis results. We present a novel approach that comprehensively integrates the protocol, node, and network view on a middle level of detail. Furthermore, the models are expressive enough to support dynamic changes. A wide range of properties can be specified using different mechanisms. As integrated models naturally are of higher complexity than more specialized models limited to a single view, analysis is particularly challenging. Generally, automated analysis approaches quickly fail due to state space explosion effects. Nevertheless, by careful modeling, considering optimization possibilities at all stages, modeling using an object-oriented and compositional yet simple structured language, and employing a state of the art analysis tool we are able to achieve automated analysis. Our approach is based on the high-level specification language CTLA 2003, a framework for modeling computer network attack scenarios, a scheme for translating CTLA 2003 to PROMELA, the CTLA2PC translation and optimization tool, and the powerful model checker SPIN. For demonstrating the feasibility of our approach, the modeling and analysis of three case studies involving multi-node dynamic network scenarios is presented. In these case studies, precise attack sequences are automatically predicted as violations of abstract security properties. Die vorhandenen Ansätze zur formalen Modellierung und Analyse von Computernetzwerksicherheit sind entweder auf eine Protokoll-, Knoten-, oder Netzwerksicht ausgerichtet. Meist beschränken sie sich sogar auf einen speziellen Teilbereich einer dieser Sichten (z.B. eine bestimmte Art von Protokollen, die Interaktion zwischen den lokalen Komponenten eines Knotens, oder die Ausbreitung vordefininierter Verletzlichkeiten). Insgesamt wird von jedem Ansatz jeweils nur ein kleiner Teil der Aspekte, die in praktischen Computernetzwerkangriffsszenarien vorkommen, abgedeckt. Hinzu kommen oft weitere Einschränkungen in Bezug auf Unterstützung dynamischer Änderungen, modellier- und untersuchbare Eigenschaften, benötigte Unterstützung der Analyse durch den Benutzer, usw. Um eine vollständigere Sicht auf Computernetzwerkangriffsszenarien zu erhalten, müssen daher mehrere Ansätze, und damit auch Modelle, Formalismen und Werkzeuge, eingesetzt werden. Sowohl die Modellierungs- als auch die Analysearbeit fallen damit mehrfach an und Konsistenz zwischen den verschiedenen Modellen und Analyseergebnissen lässt sich nur sehr schwer erreichen. In dieser Arbeit wird ein neuartiger Ansatz vorgestellt, der die Protokoll-, Knoten und Netzwerksicht auf mittlerer Detailebene übergreifend integriert. Die Modelle sind ausdrucksstark genug, um dynamische Änderungen zu beinhalten. Vielfältige Eigenschaften können über unterschiedliche Mechanismen spezifiziert werden. Da integrierte Modelle deutlich komplexer als eingeschränkte Modelle für einen Teilbereich sind, ist die Analyse besonders schwierig. Im Allgemeinen schlagen Ansätze zur automatischen Analyse schnell durch Zustandsraumexplosion fehl. Durch eine intelligente Modellierung, die Berücksichtigung von Optimierungsmöglichkeiten auf allen Ebenen, die Modellierung mit einer objektorientieren und kompositionalen, aber trotzdem auf einer einfachen Struktur basierenden Sprache, und dem Einsatz eines dem aktuellen Stand der Forschung entsprechenden Analysewerkzeuges sind wir trotzdem in der Lage, erfolgreich automatisiert zu analysieren. Unser Ansatz basiert auf der Spezifikationshochsprache CTLA 2003, einem Framework zur Modellierung von Computernetzwerkangriffsszenarien, einem Übersetzungsschema von CTLA 2003 nach PROMELA, dem CTLA2PC Übersetzungs- und Optimierungswerkzeug, und dem mächtigen Modellchecker SPIN. Die Durchführbarkeit unseres Ansatzes wird durch die Modellierung und Analyse von drei dynamischen Netzwerkszenarien zunehmender Komplexität aufgezeigt. In diesen Szenarien werden konkrete Angriffsfolgen als Verletzungen vorgegebener Sicherheitseigenschaften automatisch aufgedeckt. 238 428 398 Analyse ligandeninduzierter Konformationsänderungen von Proteinen The estrogen receptor belongs to the nuclear receptors, a protein family of ligand-dependent multidomain transcription factors that specifically regulate the expression of their target genes. The activity of NRs is under control of lipophilic small-molecule ligands, like hormones and drugs, that bind to the ligand-binding domain of the receptor, where they account for conformational changes and interactions with a variety of transcriptional co-regulator proteins and DNA. Nuclear receptors play a fundamental role in the control of physiological functions. Moreover, they are involved in pathological processes, such as diabetes, cancer, asthma, and hormone resistance syndromes. Therefore, they are important targets for current drug discovery efforts. This thesis describes the development of FLiN (Fluorescent Labels in Nuclear receptors), a fluorescence-based direct binding assay that can monitor conformational changes within the ligand-binding domain of the human estrogen receptor β. The assay technology is based on the introduction of a cysteine residue within the flexible helix 12 in the ligand-binding domain of the receptor and subsequent labeling with a thiol-reactive solvatochromic fluorophore. Binding of agonistic or antagonistic ligands stabilizes distinct conformations of helix 12 and leads to changes in the polarity of the microenvironment of the fluorophore. These changes translate into alterations of the emission spectrum that can be used to distinguish different conformations and to determine binding affinities of the ligands. In order to establish the FLiN-assay, a series of protein constructs of the receptors’ ligand-binding domain was designed in a structure-guided approach. The protein constructs were produced by heterologous expression, purified, labelled with a solvatochromic fluorophore and their suitability to report on conformational changes was assessed. After optimization of buffer-conditions and testing of different fluorophores, the results of FLiN were validated with an orthogonal assay system. The FLiN assay produces robust data, suitable for high-throughput screening, and allows for screening for new scaffolds that are able to stabilize active or inactive conformations of the receptor, which is not possible with conventional competition assay systems. Furthermore, time-resolved FLiNmeasurements were used to monitor the kinetics of ligand-binding to the receptor. Within the framework of a cooperation project, the binding of different inhibitors to p38α MAP kinase was analyzed using the FLiK-direct binding assay and structural biology studies. Three crystal structures of the kinase in complex with a benzosuberone (1) and two dibenzoxepinone inhibitors (2 and 3) were solved, revealing a characteristic binding mode with an induction of the so-called glycine-flip within the hinge region that provides selectivity over other protein kinases. Structural biology studies and FLiK-measurements both showed that the compounds were not able to stabilize a complete type II binding mode. Der Estrogenrezeptor gehört zur Proteinfamilie der Kernrezeptoren. Diese ligandenkontrollierten Transkriptionsfaktoren regulieren spezifisch die Transkription ihrer Zielgene. Die Aktivität der Kernrezeptoren wird durch die Bindung kleiner lipophiler Liganden, wie Steroidhormone oder therapeutische Wirkstoffe, reguliert, welche an die Ligandenbindungsdomäne des Rezeptors binden und Konformationsänderungen induzieren. Dadurch wird die Interaktion des Rezeptors mit einer Vielzahl an Koregulatorproteinen sowie der DNA kontrolliert. Kernrezeptoren spielen bei der Vermittlung einer Vielzahl physiologischer Prozesse, aber auch bei der Entstehung von Erkrankungen, wie Diabetes, Krebs, Asthma oder Hormonresistenz, eine entscheidende Rolle und stellen daher interessante Zielstrukturen für die moderne Wirkstoff-Forschung dar. In der vorliegenden Arbeit wird die Entwicklung des fluoreszenzbasierten direkten Bindungsassays FLiN (Fluorescent Labels in Nuclear receptors) beschrieben, der in der Lage ist, spezifische Konformationsänderungen in der Ligandenbindungsdomäne des humanen Estrogenrezeptors beta zu detektieren. Der FLiN-Assay basiert auf der Einführung eines Cystein-Rests innerhalb der flexiblen Helix 12 in der Ligandenbindungsdomäne des Rezeptors und anschließender Modifikation mit einem Thiol-reaktiven solvatochromen Fluorophor. Durch die Bindung agonistischer oder antagonistischer Liganden werden unterschiedliche Konformationen der Helix 12 stabilisiert, wodurch es zu Veränderungen in der Polarität der Mikroumgebung des Fluorophors kommt. Diese Veränderungen verursachen unterschiedliche Verschiebungen des Emissionsspektrums des Fluorophors, anhand derer die verschiedenen Konformationen unterschieden werden können und sich Bindungsaffinitäten der Liganden ermitteln lassen. Zur Etablierung des FLiN-Assays wurden in einem strukturbasierten Ansatz verschiedene Proteinkonstrukte der Ligandenbindungsdomäne entworfen, heterolog exprimiert, aufgereinigt, mit einem Fluorophor modifiziert und ihre Eignung als Sensoren für die unterschiedlichen Konformationsänderungen des ER analysiert. Nach einer Optimierung des Assays, bei der unterschiedliche Fluorophore und Puffersysteme getestet wurden, wurden die Ergebnisse des FLiN-Assays mit Hilfe eines orthogonalen Assay-Systems validiert. Dabei konnte gezeigt werden, dass der FLiN-Assay für den Einsatz im Hochdurchsatzformat geeignet ist und, im Gegensatz zu anderen hochdurchsatzfähigen in vitro Testsystemen, zur gezielten Suche nach neuen Liganden die eine aktive oder inaktive Konformation des Rezeptors stabilisieren, eingesetzt werden kann. Zusätzlich wurden zeitaufgelöste FLiN-Messungen zur Analyse der Kinetik der Ligandenbindung an den Estrogenrezeptor durchgeführt. Im Rahmen eines Kooperationsprojektes wurde die Bindung verschiedener Inhibitoren an die p38α MAP-Kinase mit Hilfe des direkten Bindungsassays FLiK sowie strukturbiologischer Studien analysiert. Dabei wurden Komplexkristallstrukturen der Kinase mit einem Benzosuberon-Inhibitor (1) sowie zwei Dibenzoxepinon-Verbindungen (2 und 3) generiert. Die Inhibitoren induzierten einen, für diese Verbindungsklasse charakteristischen, Glycin-flip innerhalb der Scharnierregion. Sowohl die strukturbiologischen Untersuchungen als auch die Analyse mittels FLiK zeigten, dass die untersuchten Inhibitoren jedoch nicht in der Lage waren, einen reinen Typ-II Bindungsmodus zu induzieren. 239 57 60 The article deals with the description and the management of conflicts in physical education. Through a systems theoretical framework, it differentiates between four development phases of a conflict and explains appropriate management techniques for assessing them. The application of these theoretical instruments is illustrated through a concrete example of a conflict between two pupils in physical education. Konflikte im Sportunterricht systemtheoretisch betrachtet. 240 207 180 Occupational paths and health-related status passages. Empirical results to determinants of limited work-time Work activities which for health reasons can only be performed for a limited time lead for many persons engaged in such work-places to occupational status passages long before normal retirement age. Whether a person can participate in occupational life as 'relatively healthy' or is excluded due to being 'relatively ill' depends much more on the type of obtainable work-places than on his/her psychophysical abilities. On the basis of two representative data sets, the article presents empirical identification strategies for socio-demographic, work-place and job-related determinants of limited work-time (German Socio-economic Panel, National and Regional Health Surveys of the German Cardiovascular Prevention Study). The effect of socioeconomic status was interrelated with certain working conditions at the last work place. The best way of coping with the problem that certain work activities can only be performed for a limited time and not until normal retirement age are changes within careers. However, changing the job because of health-related reasons often had unfavourable effects for the further occupational course and referred to down-spirals until the presumably final finishing of occupation. Instead of such an externalization of the problem of limited work-time the alternative strategies of employers should be strengthened. Erwerbsverläufe und gesundheitsbezogene Statuspassagen 241 91 69 Kooperation im Lichte der Tätigkeitstheorie Was ist Kooperation? Der Beitrag befasst sich mit der Entwicklung eines prozessorientierten Kooperationskonzeptes. Es wird von vier Perspektiven auf Kooperation ausgegangen: eine "sach- oder aufgabenbezogene", eine "soziale", eine "organisierende" und eine "kommunikative" Perspektive, die in den Einzelwissenschaften "Arbeitspsychologie", "Sozialpsychologie", "Organisationswissenschaften" und "Kommunikationswissenschaften" behandelt werden. Es wird aufgezeigt, dass deren Ansätze eher statisch sind und eine Fortschreibung und Integration der Perspektiven auf Grundlage des tätigkeitstheoretischen Ansatzes fruchtbar ist. 242 165 156 Strukturaufklärung der Aktinisoformen von Plasmodium mittels Transmissionselektronenmikroskopie In the presented master thesis the filament structure of Plasmodium was analyzed. For this purpose, cryo transmission electron microscopy and single particle analysis methods, which are provided by the software packages EMAN/EMAN2, SPARX and CTFFIND4, were used. In order to improve the resolution of actin 1 different methods, which can be used to clean the dataset, were made use of. Additionally, the applied mask was optimized and the helical symmetry parameters of this isoform were determined. For the filament structure of Plasmodium falciparum actin 1 and Plasmodium berghei actin 2 a resolution of 8-9 Å and 12-14 Å respectively was achieved. Furthermore, by comparing the structure of actin 1 with one of a canonical actin the hypothesis could be proposed that structural differences cause the extraordinary properties of this isoform. As a high-resolution structure is needed to confirm this hypothesis, this master thesis also deals with factors that possibly can limit the resolution and suggests methods which could be used to further improve the resolution. In der vorliegenden Masterarbeit wurden die Filamentstrukturen der Plasmodium Aktine untersucht. Hierzu wurde die Transmissionselektronenkryomikroskopie und Methoden der Einzelpartikelanalyse verwendet, welche seitens der Softwarepakete EMAN/EMAN2, SPARX und CTFFIND4 bereitgestellt wurden. Zur Verbesserung der Auflösung des Aktin 1 wurden verschiedene Methoden der digitalen Datenaufreinigung angewendet und die Maskierung optimiert. Außerdem wurden die helikalen Symmetrieparameter dieser Isoform bestimmt. Für die Filamentstruktur von Plasmodium falciparum Aktin 1 konnte eine Auflösung von 8-9 Å und für die Struktur von Plasmodium berghei Aktin 2 eine Auflösung von 12-14 Å erzielt werden. Anhand eines Vergleichs der Struktur des Aktin 1 mit der eines kanonischen Aktins konnte zudem die Hypothese aufgestellt werden, dass strukturelle Unterschiede die Ursache der besonderen Eigenschaften dieser Isoform sind. Da zur Bestätigung dieser Hypothese eine höher aufgelöste Struktur benötigt wird, befasst sich diese Masterarbeit auch mit möglichen, die Auflösung limitierenden, Faktoren und nennt Methoden mit denen die Auflösung weiter verbessert werden könnte. 243 196 201 Entwicklung und prozesstechnische Analyse eines festen und mediendichten Kunststoff - Metall - Verbundes Hybrid plastic-metal-joints, which are joined directly through the injection molding process (IMA-joints), are getting more and more common in industrial applications. Because of their excellent lightweight properties and the reduction of the assembly effort whereas the efficacy is equal or even better, especially the automotive- and aerospace industry have a huge interest in the application of these joints. A new topic is the construction of strong and media tight plastic-metal-joints. This thesis contributes to this topic and analyses the process technology to manufacture such a joint as well as the microstructural processes at the interface. The results of carried out researchs indicate that a high quality of the joint can be reached by pretreatment of the metal. Especially roughening and the hereby achieved micro-mechanical interlocking of the joining partners are appropriate. As a rough surface leads to a high strength, but low tightness of the joint, a simultaneous improvement leads to a compromise. Thus, a strong and tight joint is achieved. An as well analyzed macro-mechanical interlocking leads to a similar quality of the joint. Further investigations exhibit the beneficial influence of a process parameter optimization of the injection molding process and a purposeful specimen construction. Hybride Kunststoff-Metall-Verbindungen, die direkt durch den Spritzgussprozess gefertigt werden (IMA-Verbindungen), besitzen in der industriellen Fertigung einen immer höheren Stellenwert. Insbesondere in der Automobil- und Luftfahrtindustrie kommen diese aufgrund des geringen Gewichtes und der geringen Anzahl an Fertigungsschritten bei gleicher oder verbesserter Leistungsfähigkeit der Bauteile zum Einsatz. Ein noch junges Themengebiet ist die Konstruktion mediendichter und fester Kunststoff-Metall-Verbunde. Die vorliegende Arbeit greift diese Thematik auf und analysiert die Prozesstechnik zur Fertigung einer solchen Verbindung sowie die mikrostrukturellen Vorgänge an deren Grenzfläche. In den durchgeführten Untersuchungen zeigt sich, dass eine hohe Qualität der Verbindung durch die Vorbehandlung des Metalls erzielt werden kann. Insbesondere eine Aufrauung und die damit erzielte mikro-mechanische Verklammerung der Fügepartner erweist sich als zielführend. Da eine hohe Rauheit allerdings zu einer hohen Festigkeit aber einer verschlechterten Dichtigkeit der Verbindung führt, wird bei der gleichzeitigen Optimierung ein Kompromiss zwischen den beiden Zielgrößen erzeugt. Dieser ermöglicht die Fertigung einer festen und dichten Verbindung. Eine ebenfalls untersuchte makro-mechanische Verklammerung führt annähernd zur gleichen Qualität der Verbindung. Weitere Analysen lassen erkennen, dass die Festigkeit und Dichtigkeit ebenfalls durch eine Prozessparameteroptimierung des Spritzgussprozesses sowie eine zielgerichtete Konstruktion des Probekörpers verbessert werden kann. 244 141 136 Anwendung von Organozinnhydridhalogeniden in der organischen Synthese Diorgano tinhydride halides Bu2SnHX are an alternative to the often used tributyltinhydride. As they are decomposing even at room temperature or below, they make free radical chain reactions possible under milder conditions than tributyltinhydride. Furthermore the removal of tin containing by-products is easier. Several mixed tin hydrides Bu2SnHX have been used in reactions, which have been carried out with tributyltinhydride before to investigate differences in yield and selectivity. Reductions of halogen- and carbonyl compounds have been performed successfully, as well as reductive cyclisations, ring expansions and reductive aminations. Intermolecular C,C-couplings (Giese-reaction) and the Barton-McCombie-reaction have been proved to be problematic. Mixed hydrides have been shown to be more reactive, high yields have been achieved even at low temperatures. The hydrogen-transfer is faster than in the case of tributyltinhydride. Methods have been investigated for the use of catalytic amounts of tin compounds. Dibutylzinnhydridhalogenide Bu2SnHX bieten eine Alternative zu dem häufig angewandten Tributylzinnhydrid. Da sie bereits bei Raumtemperatur unter Bildung von Stannylradikalen zerfallen, ermöglichen sie Radikalkettenreaktionen bei wesentlich milderen Bedingungen als bei der Verwendung von Tributylzinnhydrid, außerdem erweist sich die Abtrennung von zinnorganischen Nebenprodukten als wesentlich einfacher. Es wurden verschiedene Hydride Bu2SnHX in Reaktionen eingesetzt, bei denen zuvor Tributylzinnhydrid angewendet wurde, um Unterschiede in Ausbeute und Selektivität zu untersuchen. Es wurden erfolgreich Reduktionen von Halogen- und Carbonyl-Verbindungen durchgeführt sowie reduktive Cyclisierungen, Ringerweiterungen und reduktive Aminierungen. Als problematisch erwiesen sich intermolekulare C,C-Verknüpfungen (Giese-Reaktion) und die Barton-McCombie-Reaktion. Es hat sich gezeigt, daß die gemischten Hydride Bu2SnHX wesentlich reaktiver sind, auch bei tiefen Temperaturen werden hohe Umsätze erzielt. Die H-Übertragung erfolgt schneller als bei Einsatz von Bu3SnH. Es wurden Methoden zur Verwendung katalytischer Zinn-Mengen untersucht. 245 381 330 Depth based estimators and tests for autoregressive processes with application on crack growth and oil prices This thesis introduces new statistical methods for a class of autoregressive (AR) processes based on data depth. In particular, we introduce methods to allow statistical inference for explosive and non-linear AR processes. The motivation for our proposals is due to experiments of Maurer and Heeke (2010). The main aim of these experiments is a fundamental research of the properties of crack growth in prestressed concrete under low loading. By application of a physical formula a class of non-linear AR processes defines a reasonable model choice. However, this full model, applied to our data, leads to identification problems. Hence, we consider three simplified models here. The experiments imply specific properties on the processes and errors which cannot be covered by standard assumptions. As a consequence, classical AR estimators and tests cannot be applied directly. Therefore, we propose methods which can deal with the specific properties based on data depth. These properties are summarised as follows: - The observed processes are explosive. - The observed processes have upward jumps. - The underlying processes are inhomogeneous, in term of parameter changes. - The observed processes are potentially right-censored. In particular, we derive outlier robust estimators, tests and confidence sets for the parameters of the underlying crack growth process. Further, we define a method to detect the changes in the parameters of this process which allows us to propose change point detection algorithms. To allow a calculation of the uncertainty of the failure times, we define a prediction method for the future development of the observed processes. Further, we introduce confidence sets for the values of the process at specific times and different stress levels to extrapolate the censored series. In combination, this allows us to calculate a S-N curve, relating the lifetime and stress, based on the available data. We also discuss the efficient implementation of the proposed methods and illustrate their advantages in comparison with standard methods by simulation studies. To illustrate further fields of application, we also discuss a change-point detection for oil prices which are typically modelled by autoregressive processes with parameters close to the unit-root. References: Maurer, R. and Heeke, G. (2010). Ermüdungsfestigkeit von Spannbeton aus einer älteren Spannbetonbrücke. TU Dortmund University. Technical Report. In der Arbeit werden neue statistische Methoden für eine Klasse von autoregressiven Prozessen, basierend auf Datentiefe eingeführt. Insbesondere definieren wir Methoden, welche die statistische Inferenz im Rahmen explosiver und nicht linearer autoregressiver Prozesse erlauben. Die Motivation für die behandelten Ansätze sind Experimente von Maurer und Heeke (2010). Das Ziel dieser Experimente ist die Grundlagenforschung im Bereich des Risswachstums in Spannbeton unter niedriger Belastung. Durch die Anwendung physikalischer Gesetze ergibt sich zur Modellierung eine Klasse von nicht linearen Prozessen. Da dieses volle Modell im Rahmen der gegebenen Daten jedoch nicht identifizierbar ist, behandelt die Arbeit reduzierte Modelle. Die Experimente implizieren zusätzliche Eigenschaften der Risswachstumsprozesse und deren Fehler, welche nicht durch Standardannahmen abgedeckt werden können. Daher sind klassische Schätzer und Tests für autoregressive Prozesse nicht direkt anwendbar. In der Arbeit werden auf Datentiefe basierende Methoden vorgeschlagen, welche die spezifischen Eigenschaften von Risswachstumsprozessen in Spannbeton abdecken können. Die zu berücksichtigenden Eigenschaften sind: - Der beobachte Prozess ist explosiv. - Der beobachtete Prozess besitzt Aufwärtssprünge. - Der beobachtete Prozess ist inhomogen im Bezug auf Parameterwechsel. - Der beobachtete Prozess ist möglicherweise rechts-zensiert. Wir leiten daher ausreißerrobuste Schätzer, Tests und Konfidenzbereiche für die Parameter der zugrundelegenden Risswachstumsprozesse her. Des weiteren definieren wir eine Methode um Parameterwechsel in diesen Prozessen zu entdecken und damit einen Bruchpunkterkennungsalgorithmus einzuführen. Um die Unsicherheit im Bezug auf die Versagenszeitpunkte zu berücksichtigen, definieren wir zudem ein Prognoseverfahren für die zukünftige Entwicklung eines Risswachstumsprozesses. Damit können wir Konfidenzbereiche für die Risslängen in bestimmten Zeitpunkten oder Risslängen bestimmen, um zensierte Prozesse zu extrapolieren. Insbesondere ist es möglich auf gegebenen Daten eine S-N-Kurve, welche die Lebenszeit mit der Last in Beziehung setzt, anzupassen. Zudem diskutieren wir die Implementierung der Verfahren, geben Beispiele für deren Anwendung und vergleichen die Methoden in Simulationsstudien. Um die Möglichkeit weiter Anwendungen aufzuzeigen, wenden wir unsere Verfahren auch auf eine Ölpreisreihe an, da typische Preismodelle auch hier von autoregressiven Prozessen ausgehen. Literatur: Maurer, R. and Heeke, G. (2010). Ermüdungsfestigkeit von Spannbeton aus einer älteren Spannbetonbrücke. TU Dortmund University. Technical Report. 246 242 204 Due to the demographic change, German work councils are confronted with a generation change in their committees. At the same time, as a result of changes in gainful employment, the complexity of topics and requirements in the activities of works councils has risen steadily, increasing the importance of knowledge. In order to prevent a large-scale loss of knowledge due to the retirement of older work council members and to maintain the committees' ability to act in the face of increasing demands, timely measures are required to preserve this knowledge. Especially the knowledge of work council chairmen as central knowledge carriers is of great importance. Therefore, the present paper examines the transfer of knowledge during chairmanship changes in work councils in order to find out the relevant knowledge, how the transfer of knowledge is arranged and the potential factors that promote and inhibit them. To this end, eight problem-centred individual interviews were conducted with current, retired and designated work council chairmen and evaluated with the help of a content analysis. The results reveal knowledge transfer processes that are largely unstructured and handled individually. The passing on of explicit (technical) knowledge works better than the passing on of the usually more decisive experience knowledge. In particular, social and company experience knowledge was attributed a very high significance. In addition to organisational and structural framework conditions, the relevant factors influencing the transfer of knowledge were to a large extent the responsibility of the actors involved. Wissensweitergabe bei Vorsitzwechsel im Betriebsrat 247 62 66 This text aks for the reasons why Wal-Mart had to undo ist expansion-strategy in Germany. Three possible pillars of failure are differentiated. The argument suggests that Wal-Mart did not take seriously economic, political, and cultural German particularities. A new-institutionalist model for explanation is put forward, specifically the concepts legitimacy and isomorphism prove useful for an understanding of Wal-Mart s situation in Germany. Der Fall Wal-Mart 248 418 361 Identification and characterization of novel hedgehog signaling pathway inhibitors and their cellular targets As a major developmental pathway, Hedgehog (Hh) signaling is required for segment polarity in Drosophila and limb pattering in vertebrates. Since its discovery 40 years ago, several studies have identified various pathway components and helped to elucidate the underlying mechanisms of signal transduction. Nevertheless, some regulatory steps during pathway induction are not yet fully understood. Similar to other developmental pathways like Wnt, TGFβ or Notch signaling, also Hh signaling plays a central role in cancer, e.g. medulloblastoma and basal cell carcinoma. Due to the open questions concerning pathway mechanisms and the relevance in some forms of cancer, novel modulators of Hh signaling are in high demand. Following a high-throughput screen for inhibition of Purmorphamine-induced osteogenesis, six inhibitors of Hedgehog signaling were characterized in this thesis. All compounds inhibited GLI-responsive reporter gene expression and suppressed the expression of Hh target genes. Two compounds, a withanolide A- and a pyrazolo-imidazole derivative bind to the heptahelical bundle of SMO, a membrane protein and central transducer of Hh signaling activity also known as the most druggable target of the Hh signaling pathway. The pyrazolo-imidazole derivative, termed Smoothib, impairs ciliary entry of SMO and most likely adopts a binding mode similar to that of SANT-1, a SMO antagonist that is effective against resistant SMO mutants. Four further compounds, quinoline-, indole-, azepinone- and thienopyrimidine derivatives, did not bind to the cyclopamine binding site of SMO. Screening of a kinase panel revealed that the thienopyrimidine derivative, termed Pipinib, selectively inhibits phosphatidylinositol 4-kinase IIIβ (PI4KB) in an ATP-competitive manner. This lipid kinase is required for production of phosphatidylinositol-4-phosphate (PI4P) and necessary for proper function and integrity of the Golgi apparatus as well as membrane trafficking and protein transport from the trans-Golgi network to the plasma membrane. Cellular levels of PI4P were reduced upon treatment with Pipinib, suggesting that PI4KB is inhibited by the compound in cells. PI4KB was validated as a positive regulator of Hh signaling via chemical and genetic depletion. PI4KB depletion sensitizes cells towards treatment with Pipinib, suggesting that PI4KB mediates Hh inhibition of Pipinib. Mode of action studies revealed that Pipinib impairs ciliary trafficking of PI4KB and that PI4KA inhibition only leads to minor reduction of Hh signaling. In combination with an already published role of PI4P in SMO activation, the results of this thesis lead to the conclusion that PI4KB is a major PI4-kinase source of PI4P that is required for SMO activation and transduction of Hh signaling activity. Als ein bedeutender entwicklungsbiologischer Signalweg ist der Hedgehog (Hh)-Signalweg verantwortlich für die Segmentpolarität in Drosophila und die Extremitätenentwicklung in Vertebraten. Seit seiner Entdeckung vor 40 Jahren wurden zahlreiche Mitglieder der zugehörigen Signalkaskade identifiziert. Nichtsdestotrotz wurden einige Schritte des Signalwegs bisher noch nicht komplett aufgeklärt. In Analogie zu anderen entwicklungsbiologischen Signalwegen spielt auch die Hh-Signaltransduktion eine zentrale Rolle in gewissen Krebserkrankungen, z.B. beim Medulloblastom und Basalzellkarzinom. Aufgrund der offenen Fragen bezüglich der Signaltransduktion und der Relevanz für die Krebsentstehung werden neue Hh-Modulatoren dringend gesucht. Ausgehend von einem Hochdurchsatz-Screening für Inhibitoren der Purmorphamin-induzierten Osteogenese wurden im Rahmen dieser Arbeit sechs Inhibitoren des Hh-Signalwegs charakterisiert. Alle Substanzen inhibierten GLI-vermittelte Reportergen- und Hh Zielgenexpression. Ein Withanolid A- und ein Pyrazolo-Imidazol-Derivat binden an das heptahelikale Bündel von SMO, ein Membranprotein, das für die Signalweiterleitung verantwortlich ist und als am besten zu inhibierendes Zielprotein im Signalweg gilt. Das Pyrazolo-Imidazol-Derivat, genannt Smoothib, beeinträchtigt den ziliären Eintritt von SMO und bindet SMO in einem Modus, der dem bekannten SMO-Inhibitor SANT-1 gleicht, welcher Resistenzen gegenüber SMO Antagonisten überwinden kann. Vier weitere Substanzen, ein Chinolin-, ein Indol-, ein Azepinon- und ein Thienopyrimidin-Derivat binden nicht an die Cyclopamin-Bindungsstelle von SMO. Die Bestimmung der Inhibition von Kinasen ergab, dass das Thienopyrimidin-Derivat, genannt Pipinib, die Phosphatidylinositol 4-Kinase IIIβ (PI4KB) selektiv und ATP-kompetitiv inhibiert. Diese Lipidkinase ist wichtig für die korrekte Funktion und Integrität des Golgi-Apparats sowie den Membrantransport und den Transport von Proteinen vom trans-Golgi-Netzwerk zur Plasmamembran. Die Behandlung mit Pipinib führte zur Reduktion der zellulären PI4P-Pegel, was zur Annahme führte, dass PI4KB auch in Zellen durch Pipinib inhibiert wird. PI4KB wurde mittels chemischer und genetischer Depletion als positiver Regulator des Hh Signalwegs validiert. Depletion von PI4KB führte zu einer Sensibilisierung der Zellen gegenüber Pipinib. Dies spricht dafür, dass PI4KB die inhibitorische Wirkung von Pipinib auf den Hh Signalweg vermittelt. Die Substanz beeinträchtigt die ziliäre Lokalisation von SMO. Die Inhibition von PI4KA hingegen, führt nur zu einer geringen Inhibition des Hh-Signalwegs. In Kombination mit einer bereits veröffentlichten Rolle von PI4P in der Aktivierung von SMO, führen die Ergebnisse dieser Arbeit zu dem Schluss, dass PI4KB eine wichtige Quelle für PI4P darstellt, welches für die Aktivierung von SMO und die Weiterleitung des Hh-Signals entscheidend ist. 249 249 234 Computing crossing numbers The graph theoretic problem of crossing numbers has been around for over 60 years, but still very little is known about this simple, yet intricate nonplanarity measure. The question is easy to state: Given a graph, draw it in the plane with the minimum number of edge crossings. A lot of research has been devoted to giving an answer to this question, not only by graph theoreticians, but also by computer scientists. The crossing number is central to areas like chip design and automatic graph drawing. While there are algorithms to solve the problem heuristically, we know that it is in general NP-complete. Furthermore, we do not know if the problem is efficiently approximable, except for some special cases. In this thesis, we tackle the problem using Mathematical Programming. We show how to formulate the crossing number problem as systems of linear inequalities, and discuss how to solve these formulations for reasonably sized graphs to provable optimality in acceptable time--despite its theoretical complexity class. We present non-standard branch-and-cut-and-price techniques to achieve this goal, and introduce an efficient preprocessing algorithm, also valid for other traditional non-planarity measures. We discuss extensions of these ideas to related crossing number variants arising in practice, and show a practical application of a formerly purely theoretic crossing number derivative. The thesis also contains an extensive experimental study of the formulations and algorithms presented herein, and an outlook on its applicability for graph theoretic questions regarding the crossing numbers of special graph classes. Das Kreuzungszahlproblem wird von Graphentheoretikern seit über 60 Jahren betrachtet, jedoch ist noch immer sehr wenig über dieses einfache und zugleich hochkomplizierte Ma der Nichtplanarität bekannt. Die Aufgabenstellung ist simpel: Gegeben ein Graph, zeichnen Sie ihn mit der kleinstmöglichen Anzahl an Kantenkreuzungen. Nicht nur Graphentheoretiker sondern auch Informatiker beschäftigten sich ausgiebig mit dieser Aufgabe, denn es handelt sich dabei um ein zentrales Konzept im Chipdesign und im automatischen Graphenzeichnen. Zwar existieren Algorithmen um das Problem heuristisch zu lösen, jedoch wissen wir, dass es im Allgemeinen NP-vollständig ist. Darüberhinaus ist auch unbekannt, ob sich das Problem, außer in Spezialfällen, effizient approximieren lässt. In dieser Dissertation, versuchen wir das Problem mit Hilfe der Mathematischen Programmierung zu lösen. Wir zeigen, wie man das Kreuzungszahlproblem als verschiedene Systeme von linearen Ungleichungen formulieren kann und diskutieren wie man diese Formulierungen für nicht allzu große Graphen beweisbar optimal und in akzeptabler Zeit lösen kann - unabhängig von seiner formalen Komplexitätsklasse. Wir stellen dazu benötigte maßgeschneiderte Branch-and-Cut-and-Price Techniken vor, und präsentieren einen effizienten Algorithmus zur Vorverarbeitung; dieser ist auch für andere traditionelle Ma e der Nichtplanarität geeignet. Wir diskutieren Erweiterungen unserer Ideen für verwandte Kreuzungszahlkonzepte die in der Praxis auftreten, und zeigen eine praktische Anwendung eines vormals rein theoretisch behandelten Kreuzungszahl-Derivats auf. Diese Arbeit enthält auch eine ausführliche experimentelle Studie der präsentierten Formulierungen und Algorithmen, sowie einen Ausblick über deren mögliche Nutzung für graphentheoretische Fragen bezüglich der Kreuzungszahlen von speziellen Graphenklassen. 250 261 226 Konturgenaue Bauteilbeschichtung für den Verschleißschutz mittels atmosphärischen Plasmaspritzens und Lichtbogenspritzens Abstract The Thermal Spray Technology has been an established method for the production of wear- and corrosion-resistant coatings on large even or radially symmetrically components. However, in recent years the number of complex or freeformed components to be coated has increased significantly. To achieve high quality coatings on these components all relevant parameters such as the process variables, the handling of the spray torch and the dynamic of the coating robot need to be taken into consideration carefully. The present work focuses on this problem by developing concepts for spraying near-net-shape, high quality coatings on arbitrary-formed components by means of the Thermal Spray Processes Atmospheric Plasma Spraying and Twin Wire Arc Spraying with metal matrix composite feedstocks. At first, process parameter studies are introduced, which are utilized in order to produce coatings with a dense and homogenous microstructure, a smooth surface, a good adhesion and cohesion, as well as a low thermal degradation of the carbides. The coating quality is evaluated by means of various microstructural and topographical coating characteristics. Afterwards, the most significant influencing parameters during the coating of complex components are identified and commonalities as well as fundamental differences between the two spraying processes are worked out. Furthermore, empirical models are set up in order to describe the deposition rate as a function of the various handling parameters. Finally, the knowledge gained by these studies is applied to coat various geometrical demonstrator components as well as a actual forming tool. These experiments demonstrate the assets and drawbacks of different path strategies as well as the possibilities of component coatings. Die Thermische Spritztechnik ist seit vielen Jahren ein etabliertes Verfahren zur Herstellung von Verschleiß- und Korrosionsschutzschichten auf großflächigen ebenen oder radialsymmetrischen Bauteilen. In jüngster Zeit werden zudem vermehrt Bauteile mit einer komplexen oder sogar freigeformten Kontur beschichtet. Auf diesen Bauteilen lässt sich ein gutes Beschichtungsergebnis nur unter Berücksichtigung aller relevanten Einflußgrößen im Spritzprozess wie der Prozessparameter, der Handhabung der Spritzpistole und der Dynamik des Beschichtungsroboters erzielen. Die vorliegende Arbeit greift diese Problematik auf. Für die Thermischen Spritzprozesse Atmosphärisches Plasmaspritzen und Lichtbogenspritzen wird ein ganzheitliches Konzept zur Herstellung endkonturnaher, hochqualitativer Beschichtungen auf beliebig geformten Bauteiloberflächen unter Einsatz karbidischer Spritzzusätze für den Verschleißschutz entwickelt. Zunächst werden Prozessparameterstudien zur Herstellung von Spritzschichten mit einer dichten und homogenen Morphologie, einer glatten Topographie, einer guten adhäsiven und kohäsiven Schichthaftung sowie einer geringen thermischen Zersetzung der Karbide vorgestellt. Die Schichtqualität wird dabei anhand verschiedener mikrostruktureller und topographischer Eigenschaften der Beschichtung bewertet. Anschließend werden die signifikanten Einflussgrößen bei der Beschichtung komplexer Bauteile ermittelt und Gemeinsamkeiten sowie grundlegende Unterschiede zwischen den Spritzverfahren herausgearbeitet. Zudem werden empirische Modelle zur Vorhersage von Auftragsraten bei Variation der Handhabungsparameter aufgestellt. Die gewonnenen Erkenntnisse werden anschließend gezielt genutzt, um mit dem Lichtbogenspritzprozess verschiedene regelgeometrische Demonstratorbauteile sowie ein realesWerkzeug für die Umformtechnik endkonturnah zu beschichten. Hierbei zeigen sich die Vor- und Nachteile unterschiedlicher Bahnstrategien sowie die grundsätzlichen Möglichkeiten der Bauteilbeschichtung. 251 384 325 MgO/Co/GaAs(001) - an interface analysis by means of XPS and XPD This work focuses in the surface and interface properties of the multi-layer system MgO/Co/GaAs(001) in terms of structure and chemical bondings. This system is found throughout the research field of spintronics wherein the tunneling magnetoresistance (TMR) effect is considered to make use of the electrons’ spins. Since this effect is highly sensitive to the interface of heterostructures, x-ray photoelectron spectroscopy (XPS) and x-ray photoelectron diffraction (XPD) are ideal tools to investigate the sample’s interface bondings and its local structural environment. Photons lead to an emission of electrons originating from the core-levels of the elements. They yield element-specific information on the near neighboring bondings within the sample. By varying the recording angle, i.e. the polar and azimuth angle, intensity modulations within the XPS spectrum are observed due to the wave character of the electrons. The interference pattern contains precise structural information with chemical resolution. These measurements are performed at the synchrotron radiation source DELTA at the Technical University Dortmund. A synchrotron source yields not only significantly higher photon intensities but also provides a tunable energy. Hence, time-consuming experiments like XPD are performed within several hours only and by tuning the kinetic energy of the electrons an interface sensitive measurement is carried out. Further, the high resolution allows a more precise determination of the chemical bondings within the multi-layer system. As a main result of this work, the Ga-rich GaAs(001) c(8×2) surface reconstruction is destroyed in favor of a Co3Ga alloy at the Co/GaAs interface. This crystalline alloy forms a rare D03 structure between an As-terminated GaAs(001) substrate and the Co(bcc) film on top of it. It shows slight relaxations in every layer. Since the GaAs’ lattice constant matches perfectly to the one of Co3Ga, it is concluded that this growth is substrate induced. As diffuses into the Co film forming amorphous bondings. MgO is then deposited on the well ordered Co layers preserving the Mg:O ratio by 1:1. For MgO thicknesses below than 4 monolayers MgO forms no crystalline structure. For a thicknesses above 4 monolayers MgO grows in a highly distorted halite structure due to a lattice mismatch to Co(bcc). Therefore, the minimum thickness of crystalline MgO growth on Co(bcc) is determined. At the interface no compound formation or Co oxidation is observed. Diese Arbeit befasst sich mit den Oberflächen- und Grenzflächeneigenschaften des Mehrschichtsystems MgO/Co/GaAs(001) im Bezug auf Struktur und chemische Bindungen. Im gesamten Forschungsfeld der Spintronik findet sich dieses Schichtsystem wieder, wobei der magnetische Tunnelwiderstand (TMR) als fundamentales Phänomen genutzt wird. Da dieser Effekt sehr empfindlich auf die Grenzfläche von Heterostrukturen reagiert, sind die Photoelektronenspektroskopie (XPS) und die Photoelektronenbeugung (XPD) ideale Untersuchungsmethoden, um die Grenzflächenverbindungen und die lokale strukturelle Umgebung dieses Schichtsystems zu untersuchen. Photonen führen hierbei zu einer Emission von Kernniveau-Elektronen aufgrund des Photoeffekts. Sie liefern elementspezifische Informationen über die benachbarten Verbindungen innerhalb der Probe. Durch Variation des Detektionswinkels, d.h. des Polar- und Azimutwinkels, werden Intensitätsmodulationen innerhalb des XPS-Spektrums aufgrund des Wellencharakters der Elektronen beobachtet. Das Interferenzmuster enthält präzise Strukturinformationen mit chemischer Auflösung. Diese Messungen werden an der Synchrotronstrahlungsquelle DELTA der Technischen Universität Dortmund durchgeführt. Eine Synchrotronquelle liefert nicht nur deutlich höhere Photonenintensitäten, sondern auch eine durchstimmbare Energie. So werden zeitaufwändige Experimente wie XPD innerhalb weniger Stunden durchgeführt und durch Abstimmung der kinetischen Energie der Elektronen wird eine grenzflächensensitiveMessung durchgeführt. Darüber hinaus ermöglicht die hohe Auflösung eine genauere Bestimmung der chemischen Verbindungen innerhalb des Mehrschichtsystems. Als Hauptergebnis dieser Arbeit wird die Ga-reiche GaAs(001) c(8×2) Rekonstruktion zugunsten einer Co3Ga- Legierung an der Co/GaAs-Grenzfläche aufgehoben. Diese kristalline Legierung bildet eine seltene D03-Struktur zwischen einem As-terminierten GaAs Substrat und dem darauf befindlichen Co(bcc)-Film. Leichte Relaxationen sind hier in jeder Schicht zu beobachten. Da die Gitterkonstante von GaAs perfekt mit der von Co3Ga übereinstimmt, wird der Schluss gezogen, dass dieses Wachstum substratbedingt ist. As hingegen diffundiert in den Co-Film und bildet amorphe Bindungen. MgO wird anschließend auf die gut geordneten Co-Schichten aufgebracht, wobei das Mg:O-Verhältnis von 1:1 erhalten bleibt. Für MgO-Schichtdicken unter 4 Monolagen bildet MgO keine kristalline Struktur. Bei Schicktdicken von oberhalb 4 Monolage wächst MgO in einer stark verzerrten Halitstruktur auf, aufgrund einer Gitterfehlanpassung zu Co(bcc). Daher wird die minimale Schichtdicke für eine kristallines MgO-Wachstums auf Co(bcc) bestimmt. An der Grenzfläche ist keine Verbindungsbildung oder Co-Oxidation zu beobachten. 252 307 295 ICP-MS based analytical screening of phosphorylated and labelled proteins Inductively Coupled Plasma Mass Spectrometry (ICP-MS) is used already for many biological applications. Apart from qualitative analysis, this technique offers quantitative information of elements in proteins which is important in determining the state and changes of the biological system. Utilizing this advantage, two different approaches were investigated in this work to detect and quantify phosphorylated and labelled proteins using Laser Ablation (LA) ICP-MS. The first approach is based on direct detection of natural hetero-elements being present in nearly all proteins, especially 31P+, and the second one involved the detection of proteins via controlled labelling by means of lanthanides using chelating complexes and staining methods. LA-ICP-MS was used in this work for detection of phospho-proteins after separation with sodium dodecyl sulphate polyacrylamide gel electrophoresis (SDS-PAGE) and transfer onto a membrane. Measuring phosphorus in proteins by this method, linearity of the calibration in the range from 20 to 380 pmol was achieved with good reproducibility and sufficient sensitivity to realize a detection limit of 1.5 pmol. Quantification of phospho-proteins was performed with standards by 1) dotting onto membranes and 2) SDS-PAGE separation and blotting. The latter quantification procedure was applied to study the changes of the phosphoproteome induced by epidermal growth factor and hydrogen peroxide of an urothelial cell line 5637. In the second part of the work, a procedure was developed to simultaneously detect and quantify multiple proteins in a mixture via labelling techniques using LA-ICP-MS in Western blots. Different labelling procedures were investigated using bi-functional chelating agents namely, 2-(4-Isothiocyanatobenzyl)-1,4,7,10-tetraazacyclododecane-1,4,7,10-tetraacetic acid (DOTA) and diethylenetriaminepentaacetic acid dianhydride (DTPA). The assay, using DOTA and iodination for labelling of proteins and antibodies, was optimised for ICP-MS detection and were combined to investigate different enzymes of Cytochromes P450 concomitantly. By this method a generic approach for detecting different proteins simultaneously could be established. Die induktiv gekoppelte Plasma-Massenspektrometrie (ICP-MS) wird bereits für viele biologische Anwendungen eingesetzt. Diese Methode liefert qualitative und quantitative elementspezifische Informationen, die zur Bestimmung des Zustands und der Veränderung eines biologischen Systems wichtig sind. Diese Fähigkeit wurde in dieser Arbeit genutzt, um zwei unterschiedliche Methoden zu untersuchen, die dazu dienen sollen, phosphorylierte und markierte Proteine durch Laserabtrags- (LA) ICP-MS zu bestimmen. Die erste Anwendung basiert auf der direkten Detektion natürlich vorkommender Hetero-Elemente in Proteinen, wie z.B. 31P+ in phosphorylierten Proteinen. Die zweite Anwendung beinhaltet den Nachweis von Proteinen durch kontrolliertes Markieren mithilfe der Lanthanide unter Einsatz von Chelat-Komplexen und Färbe-Methoden. Die Laserabtrags-ICP-MS wurde zum Nachweis von Phosphor-Proteinen nach Trennung mittels Natrium Dodecyl Sulfat Polyacrylamid Gel Elektrophorese (SDS-PAGE) eingesetzt. Mit dieser Methode konnte eine Linearität im Bereich von 20 bis 380 pmol Phosphor in Proteinen mit guter Reproduzierbarkeit erreicht werden und außerdem eine ausreichende Empfindlichkeit um eine Nachweisgrenze von 1,5 pmol zu verwirklichen. Eine Quantifizierung von phosphorylierten Proteinen wurde durch zwei unterschiedliche Methoden versucht: Auftrag von Phosphorstandards auf die zu messende Membran und durch Verwendung eines Standardproteins während der Trennung. Dieses Quantifizierungsverfahren wurde angewandt, um die Veränderungen des Phosphor-Proteoms zu untersuchen, das durch den Epidermalen Wachstumsfaktor (EGF) bzw. durch Hydrogenperoxid (H2O2) in der Harnblasen-Zelllinie 5637 erzeugt wurde. In dem zweiten Teil der Arbeit wurde ein Verfahren entwickelt, um mehrere Proteine in einer Mischung gleichzeitig nachzuweisen und zu quantifizieren, und zwar durch Markierungstechniken unter Einsatz der LA-ICP-MS an Western Blots. Unterschiedliche Markierungsverfahren wurden untersucht, basierend auf der Verwendung von bi-funktionalen Chelatbildnern, nämlich 2-(4-Isothiocyanatobenzyl)-1,4,7,10-tetraazacyclododekan-1,4,7,10-tetraessigsäure (DOTA) und Diethylen-triamin-pentaessigsäure Dianhydrid (DTPA). Die Proteine und Antikörper wurden mit DOTA und Lanthaniden markiert, jodiert und für den ICP-MS Nachweis optimiert, um unterschiedliche Enzyme von Cytochrom P450 gleichzeitig zu untersuchen. Durch diese Methode konnte ein allgemeines Verfahren zum gleichzeitigen Nachweis verschiedener Proteine ausgearbeitet werden. 253 216 201 Untersuchung und Kompensation linearer Störeffekte in stochastischen optischen Übertragungssystemen The Ph.D. thesis with the title „Untersuchung und Kompensation linearer Störeffekte in stochastischen optischen Übertragungssystemen“ is composed of an analysis of the influence and compensation of linear distortion effects in optical, fiber-based transmission systems. Numerical simulations are used to investigate and quantify how linear distortion effects like chromatic dispersion (CD), polarization mode dispersion (PMD), polarization-dependent loss (PDL) and fiber Bragg grating-induced group delay ripples (GDR) influence the signal quality in optical metro- and long-haul transmission systems. The stochastic quantities of PMD, PDL and GDR are investigated by using Monte Carlo (MC) and Multicanonical Monte Carlo (MMC) simulations. Additionally, the influence of coherent crosstalk between cores of a multi core fiber (MCF) is investigated. All of the listed linear distortion effects can reduce the optical signal-to-noise-ratio (OSNR) by several decibel and can thus result in a reduction of the signal quality of the optical transmission system. In the second part of the thesis it is shown that the induced OSNR penalties can be reduced by using optical, adaptive equalizer structures with finite and infinite impulse responses (FIR, IIR). Several numerical optimization routines like Least-Mean-Squares (LMS), Recursive Least Squares (RLS), Particle Swarm Optimization (PSO), Trust-Regin (TR) and Matrix-Inversion which can be used to determine the a priori unknown complex coefficients of the filters structure are described and compared. Die Dissertation mit dem Titel „Untersuchung und Kompensation linearer Störeffekte in stochastischen optischen Übertragungssystemen“ beschäftigt sich mit der Analyse der Auswirkung und Kompensation von linearen Störeffekten in optischen, glasfaserbasierten Übertragungssystemen. Mit Hilfe von numerischen Simulationen wird untersucht, inwieweit die linearen Störeffekte der chromatischen Dispersion (CD), Polarisationsmodendispersion (PMD), polarisationsabhängigen Dämpfung (PDL) und von durch Faser-Bragg-Gittern induzierten Gruppenlaufzeitschwankungen (GDR) die Signalqualität in optischen Metro- und Weitverkehrsübertragungssystemen beeinflussen. Die stochastischen Eigenschaften der Effekte PMD, PDL und GDR werden mit Hilfe von Monte Carlo-Simulationen (MC) und Multikanonischen Monte Carlo-Simulationen (MMC) untersucht. Zusätzlich wird der Einfluss eines kohärenten Übersprechens zwischen Kernen einer Mehrkernfaser (MCF) auf die Signalqualität untersucht. Alle angeführten linearen Störeffekte können den optischen Signal-zu-Rauschabstand (OSNR) für typische Systemkonfigurationen um mehrere Dezibel reduzieren und somit zu einer Beeinträchtigung der Signalqualität des Übertragungssystems führen. Im zweiten Teil der Dissertation wird gezeigt, dass sich die auftretenden OSNR-Einbußen mit Hilfe optischer, adaptiver Filterstrukturen mit endlicher und unendlicher Impulsantwort (FIR, IIR) reduzieren lassen. Mehrere numerische Optimierungsmethoden wie das Least-Mean-Squares-Verfahren (LMS), Recursive Least Squares (RLS), Partikelschwarmoptimierung (PSO), Trust-Region (TR) und die Matrixinversion, mit deren Hilfe sich die a priori unbekannten komplexen Koeffizienten der Filterstruktur bestimmen lassen, werden vorgestellt und miteinander verglichen. 254 266 295 English: Lisbon has recently started to face international investments and a massive growth of the tourism industry. Significant economic and political impacts have boosted a systematical rental system of private homes for tourists. These circumstances lead to rising rents and force some residents to leave their neighborhoods. Based on Mendes’ and Carmos research findings (see Mendes u. Carmo 2016), the current situation in Lisbon can be summarized as an outcome of state led tourism gentrification. While large parts of the city already experience the consequences, Mouraria is at the turning point of changes. The research paper is based on a case-study in the neighborhood of Mouraria and examines the circumstances which have fostered tourism gentrification. Moreover it analyzes to which extent the outcomes have shaped everyday life in Mouraria. In order to do so, I firstly conducted guided interviews with political and scientific actors as well as with residents. Secondly, mapping and logging helped to better understand the current situation. The empirical and theoretical analysis leads to the conclusion that the current processes are assembled by an interplay of decisions on different political tiers. All of these are mainly influenced by neoliberal principles. Though Mouraria continues to be shaped by marginalized social groups, strong social cohesion among autochthonous residents and partly by the traditional commerce, it is starting to be pressurized by investments and tourism. Anyway, the empirical evidence also underlines that the intensity of change varies significantly between sub-neighborhoods. All in all, the analysis can be described as a snapshot of the current changes and intends to make aware the effects of neoliberal urban development. Tourismusgentrifizierung in Lissabon: Eine empirische Analyse der bisherigen Folgen in Mouraria 255 163 155 Bestimmung des Energiespektrums von atmosphärischen Myonneutrinos mit 3 Jahren Daten des IceCube-Detektors In this work the measurement of the energy spectrum of atmospheric muon neutrinos in an energy range from 125 GeV to 2 PeV with data of the IceCube detector is presented. To perform the measurement a muon neutrino sample was created from three years worth of data. The sample achieved a purity of 99.7±0.03% at an event rate of 3.47 mHz. The event rate is approximately 35% higher compared to similar samples created before from the same data. In the course of this analysis an established unfolding appraoch was significantly improved and applied to determine the energy spectrum. The first result is an unfolding with 14 data points between 125 GeV and 2 PeV in a zenith range between 86° and 180°. The result shows a flattening for Eν > 100 TeV compatible with the most recent measurements of the astrophysical flux. In addition, the spectrum was unfolded with 1 data points up to energies of 250 TeV for 3 disjoint zenith regions. In dieser Arbeit wird die Messung des Energiespektrums atmosphärischer Myonneutrinos in einem Energiebereich zwischen 125 GeV und 2 PeV mit Daten des IceCube-Detektors vorgestellt. Zur Durchführung der Messung wurde zunächst für die drei untersuchten Messjahre ein Myonneutrinodatensatz erzeugt. Für den Datensatz wurde eine Reinheit von 99.7±0.03% bei einer Ereignisrate von 3.47 mHz erreicht. Die Ereignisrate liegt circa 35% höher als bei vergleichbaren Datensätzen der selben Messjahre. Für die Bestimmung des Spektrum wurde ein etablierter Entfaltungsansatz genutzt, der im Rahmen dieser Arbeit entscheidend weiterentwickelt wurde. Das erste Ergebnis ist eine Entfaltung mit 14 Messpunkten zwischen 125 GeV und 2 PeV in einem Zenitbereich zwischen 86° und 180°. Das Ergebnis zeigt ein mit den aktuellen Messungen des astrophysikalischen Flusses kompatibles Abflachen für Eν > 100 TeV. Zusätzlich wurde das Spektrum mit jeweils 11 Messpunkten zwischen 125 GeV und 250 TeV für 3 disjunkte Zenitbereiche entfaltet. 256 15 16 Daylighting and sun-shading in buildings in tropical regions Tageslicht und Sonnenschutz an Gebäuden in tropischen Regionen an example of Virika Hospital, Kasese, Uganda am Beispiel des Virika Hospitals in Kasese, Uganda 257 440 461 Hierarchical Optimisation for a Interzonal Congestion Management Hierarchische Optimierung für ein zonenübergreifendes korrektives Netzengpass-Management The problem of congestion management is a consequence of the liberalisation of the electric-ity markets. This is on the one hand due to the characteristics of the electricity market. These characteristics are among others the impossibility to store an essential amount of electricity and the therefore resulting necessity to always balance the generation with the demand includ-ing all losses. On the other hand, the possibilities of the network system operator to use the power stations are very much restricted in bilateral-oriented markets. Additionally, the elec-tricity exchange has increased between the liberalised countries as well as within Germany in consequence of the liberalisation. Therefore, the danger of congestion situations has increased on the coupling lines between network areas which were only used for balancing transmis-sions before the deregulation. A further result are the higher losses within the transmission network. The usage of a computer-based congestion management is therefore in the long term extremely necessary.A complex congestion management system is connected with nearly all (economic) processes in deregulated electricity markets. It can therefore only be assessed in connection with other processes of the electricity markets and depends to a large degree on the economic structure of the respective market. Existing congestion management measures do not consider this suf-ficiently. A new procedure is developed in this work, which considers the real conditions in the network. The Sequential Quadratic Programming (SQP) approach used here as redispatch-measure considers the technical circumstances. It solves the congestion based on the exact network equations and restrictions within a network area. A convex, piecewise-linear objective func-tion is used, reflecting the offers of the power station owners.The hierarchical optimisation based on the non-linear load flow equations is used for the first time in this context, as on the one hand the data of the complete network is unknown and on the other hand the congestions mostly occur between the individual network areas. Hierarchi-cal optimisation is in this case the parallel optimisation of the loadflows in the individual net-work areas, which are coordinated with regard to the actual values of the coupling lines cen-trally. The hierarchical optimisation thus allows the individual network system operator not to publish his data and nevertheless results in a global optimal point.As the question of billing is crucial for the congestion management, the developed hierarchi-cal optimisation is combined with a simple, transparent and fair billing model. This billing model enables a free and fair trade and can be used in different market structures.The developed congestion management system using the hierarchical optimisation with SQP and billing model provides thus for the first time a consistent technical and economic optimal solution. Die Problematik des Netzengpass-Managements (NEM) entstand erst durch die Liberalisie-rung der Strommärkte. Dies kann zum einen auf die spezifischen Besonderheiten des Strom-marktes zurückgeführt werden. Zu diesen Besonderheiten zählen u. a. die Unmöglichkeit, das Produkt Strom im wesentlichen Umfang zu speichern und die daraus resultierende Notwen-digkeit, die Erzeugung zu jedem Zeitpunkt gleich der Nachfrage zuzüglich aller Verluste zu halten. Zum anderen existieren im bilateral-orientierten Markt sehr stark eingeschränkte Zugriffsmöglichkeiten eines Netzbetreibers auf den Kraftwerkspark.. Zusätzlich ist der Ener-gieaustausch zwischen den liberalisierten Ländern ebenso wie innerhalb Deutschlands infolge der Liberalisierung gestiegen. Dadurch resultieren insbesondere im Höchstspannungsnetz auf den Kuppelleitungen, die früher nur für Ausgleichslieferungen zwischen den Regelzonen vor-gesehen waren, die Gefahr von Netzengpässen sowie höhere Verluste innerhalb des Trans-portnetzes. Die Durchführung eines rechnergestützten Netzengpass-Managements ist somit langfristig unabdingbar.Ein komplexes Netzengpass-Management-System (NEMS) ist mit nahezu allen (wirtschaftli-chen) Vorgängen in deregulierten Energiemärkten verknüpft und kann nur in Verbindung mit anderen Prozessen der Strommärkte bewertet werden. Es hängt zu einem hohen Grad von der zugrundeliegenden Wirtschaftsstruktur im betrachteten Strommarkt ab. Bisherige Verfahren des NEM tragen den unterschiedlichen und komplexen Anforderungen zu wenig Rechnung. In dieser Arbeit wird ein neues Verfahren entwickelt, das die realen Verhältnisse im Netz be-rücksichtigt und mit einem einfachen, transparenten und verursachergerechten Abrechnungs-modell kombiniert wird, das einen möglichst freien und fairen Handel zulässt und in unter-schiedlichen Marktstrukturen eingesetzt werden kann. Der hier verfolgte Ansatz der Sequentiellen Quadratischen Programmierung (SQP) als Re-dispatch-Maßnahme erfüllt die Forderungen nach einer stärkeren Berücksichtigung der tech-nischen Rahmenbedingungen. Er löst den NE auf Basis der exakten Netzgleichungen und Restriktionen innerhalb einer Regelzone. Es wird eine konvexe, stückweise lineare Zielfunk-tion benutzt, welche die Angebote der KW-Betreiber abbildet, um die im ersten Schritt vom ÜNB zu zahlenden NE-Kosten zu minimieren.Da NE zumeist zwischen den Regelzonen oder durch die Querflüsse verursacht in der Nähe der Kuppelstellen auftreten und die Netzdaten des Gesamtnetzes nicht verfügbar sind, wird in diesem Kontext erstmalig der Ansatz der hierarchischen Optimierung basierend auf den nicht-linearen Lastflussgleichungen unter Verwendung der SQP angewandt. Unter dem Begriff hie-rarchische Optimierung sind in diesem Fall parallele Optimierungen des Lastflusses in den einzelnen Regelzonen zu verstehen, die an zentraler Stelle bezüglich der aktuellen Werte der Kuppelleitungen automatisch koordiniert werden. Die hierarchische Optimierung mit unterla-gerter nichtlinearer Suboptimierung gewährleistet somit den Datenschutz der einzelnen ÜNB und erreicht dennoch das volkswirtschaftlich sinnvolle, globale Optimum. Die Problematik der Kostenübernahme für die NE-Beseitigung ist eine der zentralen beim NEM entstehenden Fragen. Daher wird in dieser Arbeit ein möglichst verursachergerechtes Abrechnungsmodell entwickelt, das zusätzlich um eine Komponente für die verursacherge-rechte Finanzierung des Einbaus von netzkapazitätserweiternden Maßnahmen ergänzt wird. Somit stellt das hier entwickelte Verfahren der hierarchischen Optimierung mit der SQP als Suboptimierung sowie einem auch den Netzausbau berücksichtigenden verursachergerechten Abrechnungsmodell erstmalig eine geschlossene, sowohl technisch als auch volkswirtschaft-lich betrachtet optimale, Lösung der NE dar. 258 306 282 Imprinted fluorogenic receptors composed of a polymerisable naphthalimide-based oxyanion probe The presented work is part of a DFG project. The goal of the project was the design, synthesis and evaluation of molecularly imprinted polymers (MIPs) with optical sensing properties, aimed at the selective detection of anionic guest-molecules. The projects combines the rapidly growing field of anion-detection with molecular imprinting. Upon integration of tailor-made monomers with fluorogenic properties into MIPs, selective materials with the dual ability to bind a specific anionic analyte and simultaneously report the binding by a luminescence change were developed. In order to meet this goal in a first step urea-based monomers containing a chromophoric π-system were designed and synthesised. Their affinity towards anionic guestmolecules and thus their applicability for the integration into MIPs was investigated. Furthermore, it was evaluated, if the binding event is transduced into a spectroscopically detectable signal. Based on the monomers showing the desired properties, MIPs in different formats were developed and investigated. Monolithic bulk polymers were prepared in order to evaluate the separation properties of the polymers. For applications with the focus on sensory characteristics thin-film MIPs on glass-supports were synthesised. The materials prepared for the presented work meet the goal of the project in an outstanding way. Upon chromatographic evaluation, MIPs prepared from the novel monomers showed pronounced discrimination between their template and structurally related analytes. Furthermore, the polymers were able to discriminate enantioselectively. Also the polymers in film-format revealed strong enantioselective discrimination and selectivity towards structurally related analytes. The binding of the template induces pronounced fluorescence quenching. This quenching is not, respectively less pronounced observed for the other enantiomer and other analytes. In summary MIPs based on tailor-made monomers with fluorogenic properties were successfully prepared. These polymers detect their respective template selectively, leading to high imprinting factors in chromatographic evaluations and strong luminescence changes in spectroscopical tests. Ziel der vorliegenden, im Rahmen eines DFG Projektes erstellten Arbeit waren das Design, die Synthese und die Untersuchung molekular geprägter Polymere (MIPs) mit optischen Sensoreigenschaften zur selektiven Detektion anionischer Gastmoleküle. Das Projekt verbindet das wachsende Feld der Anion-Detektion mit dem Bereich der molekularen Prägung. Durch den Einbau speziell entwickelter, funktioneller Monomere mit fluorogenen Eigenschaften in molekular geprägte Polymere wurden selektive Materialien hergestellt, die die Bindung eines spezifischen, anionischen Analyten durch eine einfach zu detektierende Änderung in der Luminiszenz anzeigen. Im Zuge dessen wurden zunächst Harnstoff-basierte, ein chromophores π-System enthaltende, Monomere entwickelt. Um ihre Attraktivität für den Einbau in ein Sensor-MIP zu überprüfen, wurden die Affinität der Monomere zu anionischen Gastmolekülen überprüft und ermittelt, ob die Interaktion mit einer Änderung in den spektroskopischen Eigenschaften verbunden ist. Die vielversprechendsten Monomere wurden für die Synthese von MIPs in verschiedenen Formaten ausgewählt. Zur Untersuchung der Trennungseigenschaften in chromatographischen Anwendungen wurden zunächst monolithische Polymere synthetisiert. Für Anwendungen, bei denen Sensoreigenschaften im Vordergrund stehen, wurden geprägte Filmsysteme auf Glassoberflächen entwickelt. Die im Rahmen dieser Arbeit hergestellten Materialien erfüllen in herausragender Weise die Zielstellung des Projektes. MIPs basierend auf den neu entwickelten Monomeren zeigen sehr gute Diskriminierung zwischen ihrem Templat und strukturell verwandten Analyten in chromatographischen Untersuchungen und zeigen Enantioselektivität. Auch die Polymere in Filmformat zeigen starke enantioselektive Diskriminierung und Selektivität gegenüber anderen Analyten. Die Bindung des Templats wird in diesem Fall indiziert durch eine Verringerung der Fluoreszenz, die nicht oder wesentlich schwächer für das andere Enantiomer und andere Analyten beobachtet wird. Zusammenfassend ist es gelungen, MIPs in verschiedenen Formaten basierend auf neu entwickelten, fluorogenen Monomeren herzustellen. Diese Polymere reagieren selektiv auf ihr jeweiliges Templat; resultierend in hohen Imprinting-Faktoren in chromatographischen Anwendungen und stark selektiver Fluoreszenzabnahme in spektroskopischen Tests. 259 654 585 Elektrische Stimulation von Polyacrylamidkapseln For the preparation of the membranes of the microcapsule systems used here, the functionalized polyacrylamide (PAAm) was synthesized with the monomers acrylamide and N-(3-aminopropyl)methacrylamide (NAPMAAm) by polycondensation. The synthesis reaction of this polyelectrolyte was examined spectrometrically and the polymer was characterized in detail. The capsule membrane was developed by interfacial polymerization of PAAm with an acid dichloride crosslinker and has been followed both rheometrically and tensiometrically. The capsule membrane was examined rheologically and microscopically. The analysis of microcapsule behavior in the electric field was performed in two self-designed capacitors, a homogeneous and an inhomogeneous electric field. In addition, the movement behavior was traced microscopically with mass transfer and evaluated by tracking analysis. The dissertation work was carried out both experimentally and supported by computer-simulations. For the evaluation of the deformation behavior, specifically two programs for video analysis have been written in MATLAB. In cooperation with other working groups of the TU Dortmund the simulatory considerations for both the representation of the electric field lines and potentials as well as the elastometric determination of the network properties of the polyacrylamide membranes took place. Magnetic magnetite nanoparticles were encapsulated to determine their influence on the deformation behavior of the microcapsules. For interfacial polymerization, cationic surfactants have been used to support mass transfer to the interphase. A covalent network was generated and homogeneous membranes were detected. In the CTAB system, the calculated modulus of elasticity is ES = 0,053 ± 0,022 Nm-1, which is about one-third less than the simulated result of ES = 0,086 ± 0,066 Nm-1. The Young's moduli of the DTAB-controlled PAAm membrane are rheologically calculated at ES = 0,098 ± 0,049 Nm-1, which is one-fifth higher than the computer-simulated value ES = 0,077 ± 0,022 Nm-1. That means, according to the present determination of storage and Young's moduli, the elasticities of capsule shells with DTAB and CTAB are of the same order of magnitude. If the Young modulus is calculated from the electrical deformation of the capsule membrane, a value of ES = -0,012±0,001 Nm-1 turns out and this result too is to be expected in the order of magnitude, but is low in comparison with the rheological values. In the membrane system with CTAB the average value of the Poisson ratio v = 0.50 ± 0.13 and therefore confirms the literature assumption of the Poisson ratio v = 0.50. The analysis of the deformation behavior of the immobilized microcapsules in the pendant drop tensiometer revealed that there is both a reversible and an irreversible deformation component in the membrane. The deformations are greater, the higher the applied voltage was in the measuring range between U = 100 V und U = 1250 V. Even if the reproducibility of the deformation behavior of the immobilized polyacrylamide capsules is very difficult to assess, all systems react as expected: the higher the applied electrical voltage and the higher the electric field strength, the greater the deformation. The quantification of the elastic and plastic deformation components is possible, but only to a limited extent. Elastic deformations up to D '= 0.33 and plastic deformations between D' = 0.04 and D '= 0.07 were determined. As was to be expected, the average speed of movement of the various capsule systems increases linearly with increasing applied voltage in the two capacitors. It turns out that the microcapsules with ferrofluid core material always have the highest average and maximum velocities in the homogeneous and inhomogeneous electric field. Both the alginate beads used for comparison and the separate reference systems show only slight movement behavior in the electric fields, even with different DC voltages between U = 100 V und U = 1250 V. This proves that on one side the presence of the polyacrylamide for the movement the microcapsules in the electric field is necessary. On the other side only then the influence of additives such as magnetic nanoparticles, their effect to accelerate the transport of material can develop. Für die Herstellung der Membranen der hier verwendeten Mikrokapselsysteme, erfolgte die Synthese des funktionalisierten Polyacrylamids (PAAm) aus den Monomeren Acrylamid und N-(3-Aminopropyl)-methacrylamid (NAPMAAm) durch Polykondensation. Die Synthesereaktion dieses Polyelektrolyts wurde spektrometrisch untersucht und das Polymer eingehend charakterisiert. Die Kapselmembran entstand über Phasengrenzflächen-polymerisation des PAAm mit einem Säuredichlorid-Vernetzer und wurde sowohl rheometrisch als auch tensiometrisch verfolgt. Die Kapselmembran wurde rheologisch und mikroskopisch untersucht. Die Analyse des Verhaltens der Mikrokapseln im elektrischen Feld wurde in zwei selbst konstruierten Kondensatoren - einem homogenen und einem inhomogenen elektrischen Feld - durchgeführt. Zudem wurde das Bewegungsverhalten der Mikrokapseln mit Stofftransport mikroskopisch verfolgt und über Trackinganalysen ausgewertet. Die Arbeit wurde sowohl experimentell durchgeführt als auch computersimulatorisch unterstützt. Für die Auswertung des Deformationsverhaltens sind eigens zwei Programme für Videoanalysen in MATLAB entwickelt worden. In Kooperation mit anderen Arbeitskreisen der TU Dortmund fanden die simulatorischen Betrachtungen sowohl für die Darstellung der elektrischen Feldlinien und Potentiale als auch die elastometrische Bestimmung der Netzwerkeigenschaften der Polyacrylamidmembranen statt. Es wurden magnetische Magnetitnanopartikel verkapselt, um deren Einfluss auf das Deformationsverhalten der Mikrokapseln zu ermitteln. Für die Grenzflächenpolymerisation wurden die kationischen Tenside CTAB und DTAB zur Unterstützung des Stofftransports in die Grenzphase eingesetzt. Es wurden kovalente Netzwerke erzeugt und homogene Membranen nachgewiesen. Im CTAB-System beträgt der berechnete Elastizitätsmodul ES = 0,053 ± 0,022 Nm-1 und liegt damit etwa ein Drittel unterhalb des simulierten Ergebnisses von ES = 0,086 ± 0,066 Nm-1. Die Young-Moduln der DTAB-kontrollierten PAAm-Membran liegen rheologisch berechnet bei ES = 0,098 ± 0,049 Nm-1 und damit ein Fünftel höher als der computersimulierte Wert mit ES = 0,077 ± 0,022 Nm-1. Das heißt, laut der vorliegenden Ermittlung der Speicher- und der Young-Moduln liegen die Elastizitäten der Kapselhüllen mit DTAB und CTAB in derselben Größenordnung. Wird der E-Modul aus der elektrischen Deformation der Kapselmembran berechnet, ergibt sich ein Wert von ES = 0,012±0,0012 Nm-1 und auch dieses Ergebnis liegt in der zu erwar-tenden Größenordnung, fällt jedoch im Vergleich mit den rheologischen Werten niedrig aus. Im Membransystem mit CTAB beträgt der gemittelte Wert der Poissonzahl v = 0,50 ± 0,13 und bestätigt daher die Literaturannahme der Poissonzahl v = 0,5. Die Analysen des Deformationsverhaltens der immobilisierten Mikrokapseln im Pendant-Drop-Tensiometer haben ergeben, dass es sowohl einen reversiblen als auch einen irreversiblen Deformationsanteil in der Membran gibt. Die Deformationen sind umso größer, je höher die angelegte Spannung im Messbereich zwischen U = 100 V und U = 1250 V war. Auch wenn die Reproduzierbarkeit des Deformationsverhaltens der immobilisierten Polyacrylamidkapseln sehr schwierig einzuschätzen ist, so reagieren alle Systeme erwartungsgemäß: Die Deformation ist umso größer, je höher die angelegte elektrische Spannung und umso höher die wirkende elektrische Feldstärke ist. Die Quantifizierung der elastischen und plastischen Deformationsanteile ist möglich, aber nur eingeschränkt auswertbar. Es wurden elastische Deformationen bis zu D‘ = 0,33 und plastische Deformationen zwischen D‘ = 0,04 und D‘ = 0,07 bestimmt. Wie zu erwarten war, erhöht sich die mittlere Bewegungsgeschwindigkeit der verschiedenen Kapselsysteme linear mit steigender angelegter Spannung in den beiden Kondensatoren. Dabei sticht wird herausgestellt, dass die Mikrokapseln mit ferrofluidem Kernmaterial stets die höchsten mittleren und maximalen Geschwindigkeiten im homogenen und inhomogenen elektrischen Feld aufweisen. Sowohl die zum Vergleich eingesetzten Alginatbeads als auch die separaten Referenzsysteme zeigen nur geringes Bewegungsverhalten in den elektrischen Feldern, selbst bei verschieden DC-Spannungen zwischen U = 100 V und U = 1250 V. Damit ist nachgewiesen, dass sowohl die Anwesenheit des Polyacrylamids für die Bewegung der Mikrokapseln im elektrischen Feld notwendig ist und nur dann auch die Einflussnahme von Additiven, wie magnetischen Nanopartikeln, ihre Wirkung zur Beschleunigung des Stofftransports entfalten können. 260 200 178 Computational modelling of single and polycrystalline ferroelectric materials The present thesis deals with the development of thermodynamically consistent material models to describe the macroscopic non-linear hysteretic behaviour of ferroelectric single and polycrystalline materials. At first, a phenomenological material model is discussed in order to gain an understanding of the overall electromechanical coupling behaviour as well as to study the rate-dependent macroscopic polarisation evolution in crystalline ferroelectric solids. Following the phenomenological framework, laminate-based models are developed by treating the volume fraction of the tetragonal ferroelectric variants as internal state variables in their thermodynamic potentials. By considering different averaging principles, distinct thermodynamic potentials are postulated for the individual laminate-based material models. The influence of both the loading rate and the magnitude of the external compressive stress on the domain evolution and polarisation switching in tetragonal ferroelectric single crystals under combined electromechanical loading is simulated with help of the developed laminate-based models. Finally, a homogenisation-type strategy based on random orientations of the individual single crystal grains in a polycrystalline aggregate is detailed. The properties of the randomly oriented grains are averaged within a finite element framework to simulate the polarisation switching response and the macroscopic hysteresis curves for a bulk tetragonal ferroelectric ceramic. Die vorliegende Arbeit befasst sich mit der Entwicklung thermodynamisch konsistenter Materialmodelle zur Beschreibung des makroskopisch nichtlinearen hysteretischen Verhaltens von ferroelektrischen ein- und polykristallinen Materialien. Als erstes wird ein phänomenologisches Materialmodell vorgestellt, welches sowohl zum Verständnis des allgemeinen elektromechanischen Kopplungsverhaltens dient, als auch zur Untersuchung der ratenabhängigen makroskopischen Polarisationsentwicklung in kristallinen ferroelektrischen Festkörpern genutzt wird. Im Anschluss an den phänomenologischen Modellierungsrahmen werden laminatbasierte Modelle entwickelt, bei denen die Volumenfraktionen der tetragonalen ferroelektrischen Varianten als interne Zustandsvariablen in den thermodynamischen Potentialen verwendet werden. Im Kontext der Mittelungsverfahren werden unterschiedliche thermodynamische Potentiale für die verschiedenen laminatbasierten Materialmodelle postuliert. Der Einfluss von sowohl der Belastungsgeschwindigkeit als auch der Höhe der externen Druckspannung auf die Domänenentwicklung und Umklappvorgänge der Polarisation werden in tetragonalen ferroelektrischen Einkristallen unter kombinierter elektromechanischer Belastung mit Hilfe der entwickelten laminatbasierten Modellen simuliert. Zum Schluss werden homogenisierungsartige Verfahren basierend auf Zufallsverteilungen der einzelnen einkristallinen Körnern in einem polykristallinen Verbund im Detail vorgestellt. Die Eigenschaften der zufällig verteilten Körner werden in einem Finite Elemente Rahmen gemittelt, um die Umklappvorgänge der Polarisation und die makroskopische Hysteresekurve einer tetragonalen ferroelektrischen Keramik zu simulieren. 261 356 351 Anwendung der hochaufgelösten bildgebenden MALDI-MS zur Aufklärung der räumlichen Verteilung des Acetaminophens und seiner Biotransformationsprodukte sowie von Taurocholaten in der Leber von Mäusen in Folge einer Acetaminophen Intoxikation Acetaminophen induces hepatotoxicity in the liver of mammal organisms, after the uptake of an overdose. It is well reported, that CYP mediated activation of APAP is thereby causing a pericentral damage pattern in the liver lobules. However, no direct spatio-temporal information about the distribution pattern of APAP and its biotransformation products in the liver were available until the publication of parts of this work. Herein, the development of an analytical method based on of the sophisticated HR-MALDI-MSI technique is reported. The aim was to detect the distribution of APAP, its main metabolites APAP-GLC and APAP-SUL and adduct APAPGSH, known to be formed during detoxification of the toxic intermediate metabolite NAPQI by GSH, in the liver of C57BL/6 mice, which were treated intraperitoneally with APAP and whose livers were collected in a time-and dose-dependent manner. Previously, intensive efforts were put in the analytical investigation of the toxic intermediate NAPQI from liver tissue by MALDIMSI since its detection would have revealed valuable information about its sites of formation and impact. For this purpose, an innovative derivatization approach with H2S gas was applied, which in general, could also enrich the portfolio of derivatization methodologies used for MALDIMSI experiments. However, the detection of NAPQI and its on-tissue derivatization attempts failed, presumably due to the lack of unreacted NAPQI in the liver. Histology-directed superposition of ion density images in consideration of special features of different imaging software made it possible to determine the differences in the distribution pattern of the analytes. While no specific zonation could be detected for APAP, APAP-SUL and APAP-GLC, a preferential formation of APAP-GSH and depletion of GSH in the pericentral zones of the lobule were revealed. However, the depletion of GSH was not restricted to pericentral zones but was also demonstrated for the periportal areas. 120 min after APAP injection a series of drastic events happened: APAP-GSH as well as taurocholates entered from the bile vessels into the pericentral zone and from there leaked into the systemic blood circulation. The massive leakage of bile acids into the hepatocytes is providing the evidence of a “secondary” toxicity event initiated by the activation of APAP in the liver. Überdosierungen an APAP führen zu hepatotoxischen Auswirkungen in der Leber von Säugetieren. Die Hepatotoxizität ist u.a. eine Folge der metabolischen Aktivierung des Acetaminophens durch CYP. Dabei treten pericentrale Schadensmuster in den Leberläppchen auf. Es fehlten bisher Informationen über die räumlich-zeitliche Verteilung vom APAP und seinen Biotransformationsprodukten in der Leber bis zur Veröffentlichung von Teilen dieser vorliegenden Arbeit. Um die Fragestellung zu beantworten, wurde eine Methode basierend auf der leistungsstarken HR-MALDI-MSI Technik entwickelt. Dadurch konnte die Verteilung vom APAP, seinen Hauptmetaboliten APAP-GLC und APAP-SUL und seinem Addukt APAP-GSH in der Leber von C57BL/6 Mäusen, denen APAP intraperitoneal verabreicht wurde und deren Leber sowohl zeit- als auch dosisabhängig beprobt wurden, detektiert werden. Zuvor wurden intensive Anstrengungen unternommen, um das toxische Intermediat NAPQI im Lebergewebe durch MALDI-MSI zu erfassen. Ziel war es, Informationen über seinen Bildungs- und Wirkungsort im Lebergewebe zu gewinnen. Hervorzuheben ist dabei ein Versuchsansatz bei dem H2S zur Derivatisierung von NAPQI eingesetzt wurde. Diese innovative Methode könnte zudem das Portfolio an Derivatisierungsmöglichkeiten für MALDI-MSI Experimente erweitern. Allerdings konnte das NAPQI weder direkt noch über seine artifiziellen Derivate im Lebergewebe detektiert werden, was vermutlich auf einen Mangel an nicht-abreagiertem NAPQI im Lebergewebe zurückzuführen ist. Die durch Gewebehistologie unterstützte Superpositionierung von Ionendichtebildern unter Einbeziehung der Eigenschaften verschiedener Imaging Software ermöglichte es, präferentielle Verteilungen der Analyten bezüglich der metabolischen Zonen zu erfassen. Während für APAP, APAP-SUL und APAP-GLC keine zonale Verteilung festgestellt werden konnte, konnte eine präferentielle Bildung des APAP-GSHs sowie ein schwerpunktmäßiger Abbau des GSHs in der pericentralen Zone verortet werden. Der Abbau an GSH war aber nicht ausschließlich auf die pericentralen Zonen beschränkt, sondern konnte auch für die periportalen Zonen demonstriert werden. 120 min nach der APAP Injektion konnte ein Influx an APAP-GSH und an Taurocholaten von den Gallengefäßen in die pericentrale Zone und von dort ins Blut beobachtet werden. Dieser massive Eintrag von Gallensäuren beweist, dass sich ein „sekundäres“ Toxizitätsevent ereignet, welches vormals durch die Aktivierung des APAPs in der Leber gestartet wurde. 262 459 342 Orchestration of resources in distributed, heterogeneous grid environments using dynamic service level agreements In recent decades the acceptance of the internet and the increase of network capacity have resulted in a situation in which it is now possible to transfer huge amounts of data efficiently and reliably between different computing systems worldwide. This enables new paradigms in provision and use of distributed IT resources. Grid computing is such a well-known paradigm where computing resources owned by various institutions and organizations are used in a coordinated way in order to solve scientific and economic problems. Besides computing resources also data, storage or software resources are provided. Today it becomes more and more important with which quality the different resources are provided. This may be, for example, the minimal availability of computing resources, the maximum access time of a data storage or the maximum response time of a web-based application. Offering resources with a defined quality means for resource providers that they need to implement specific processes to assert the quality of the provisioning process. On the other hand, resource providers can offer their services at different quality levels. Services with a lower quality can be offered cheaper than those with a higher quality. Service consumers can therefore select the service with the appropriate service level in terms of their requirements and budget. This provides both parties, service provider and consumer, with more flexibility during the service provisioning process. Service level agreements (SLAs) are an accepted approach to realize contracts for IT services and service qualities. They describe the functional and the non-functional requirements of IT services. Additionally, they define compensation and penalties for delivering services with the defined requirements respectively for failing to meet these quality criteria. This thesis examines methods for negotiation and management of SLAs in distributed systems based on the WS-Agreement standard. The focus is on methods for SLA declaration, automated SLA negotiation and creation processes, monitoring of SLA guarantees, and the application of SLAs for coordinated IT resource provisioning. Therefore, a protocol for dynamic negotiation or renegotiation of SLAs is developed as an extension to the WS-Agreement specification. This includes the definition of a negotiation model for the exchange of offers between the negotiating partners. The subsequent SLA creation process is an automated process in distributed systems. Since SLAs are a kind of electronic contracts a mechanism for validating the integrity of SLA offers was developed and is presented in detail. In addition, automatic methods for SLA guarantee evaluation are described. Finally, an orchestration service for co-allocating arbitrary resources such as computing and network resources is presented. The resource orchestration process has been realized using SLAs. The architecture of this service is evaluated and based on the evaluation result an advanced orchestration service architecture is conceived. Die Akzeptanz des Internets und der zunehmende Ausbau von Netzwerkkapazitäten ermöglichen bereits heute einen effizienten und zuverlässigen Austausch riesiger Datenmengen zwischen verschiedenen Rechensystemen weltweit. Hieraus resultieren neue Paradigmen bei der Bereit-stellung und Nutzung verteilter IT-Ressourcen wie zum Beispiel das Grid-Computing. Im Grid-Computing werden Rechenressourcen verschiedener Institutionen bzw. Organisationen koordiniert zur Lösung wissenschaftlicher und wirtschaftlicher Problemstellungen genutzt. Neben Rechenressourcen werden dabei auch Daten, Datenspeicher oder Software bereitgestellt. Die Qualität mit der diese Ressourcen bereitgestellt werden gewinnt dabei zunehmend an Bedeutung. Qualitätseigenschaften sind zum Beispiel die minimale Verfügbarkeit von Rechenressourcen, die maximale Zugriffszeit eines Datenspeichers oder die maximale Antwortzeit einer web-basierten Anwendung. Für Ressourcenanbieter bedeutet dies dass spezifische Prozesse implementiert werden müssen um qualitativ hochwertige IT-Dienste bereitzustellen. Zudem können Dienste mit unterschiedlichen Dienstqualitäten bereitgestellt werden, wobei Dienste mit geringerer Qualität preiswerter angeboten werden als solche mit hoher Qualität. Anwender hingegen können den für sie passenden Dienst hinsichtlich ihrer Anforderungen und ihres Budgets auswählen. Service Level Agreements (SLAs) sind ein akzeptierter Ansatz um Verträge über IT-Dienste und Dienstqualitäten zu realisieren. SLAs beschreiben sowohl die funktionalen als auch die nicht-funktionalen Anforderungen von IT-Diensten als auch Vergütung und Strafen für Erfüllung bzw. Nichterfüllung der definierten Anforderungen. Diese Arbeit behandelt Methoden zur Verhandlung und Verwaltung von dynamischen SLAs in verteilten Systemen auf Basis des WS-Agreement Standards. Im Fokus steht hierbei die Deklaration von SLAs, deren automatisierte Verhandlung und Erstellung, das Monitoring von SLA Garantien, sowie die Verwendung von SLAs zur koordinierten Nutzung von IT-Ressourcen. Zu diesem Zweck wurde aufbauend auf die WS-Agreement Spezifikation ein Protokoll zur dynamischen Verhandlung bzw. Neuverhandlung von SLAs entwickelt. Dies beinhaltet die Definition eines Verhandlungsmodells zum Austausch von Angeboten zwischen den Verhandlungspartnern. Die anschließende Erstellung der SLAs basiert auf dem WS-Agreement Standard stellt einen automatisierter Prozess dar. Da es sich bei SLAs um elektronische Verträge handelt wurden Mechanismen zur Validierung von SLA Angeboten entwickelt und im Detail vorgestellt. Darüber hinaus werden Methoden zur automatisierten Evaluation von SLA Garantien beschrieben. Abschließend wird die Architektur und Implementierung eines Orchestrierungsdienstes zur Co-Allokation beliebiger Ressource wie z.B. Rechen- und Netzwerkressourcen vorgestellt. Die Ressourcenorchestrierung wurde hierbei mittels SLAs realisiert. 263 158 132 Role clarity amongst loan-employees. A comparison between loan - employees and regular staff of a company The present article discusses reasons for the employment of contract-personnel as well as employment problems referring to an example stemming from the chemical industry. In the empirical part of the article the working situation of 48 loan-employees will be compared to the situation of 85 regular employees of the customer company. The results show that loan-employees are instructed, supplied with tools, and supported with performance feedback as well as regular employees. Role clarity of loanemployees compares to the role clarity of regular employees with up to twelve months of company experience. A joint analysis of both investigation groups shows that role clarity increases with increasing company experience. Further conditions of role clarity are the quality and quantity of information supply and performance feedback for the employees and their teams. Consequence of a significant role clarity is a strong self-efficacy of the employee. Rollenklarheit bei Leiharbeit 264 178 156 Homogenisierungsansätze für elasto-plastische Festkörper auf Basis inkrementeller Variationsprinzipien In this treatise, a novel hybrid homogenization strategy for elasto-plastic solids at finite strains is proposed. First, a variational consistent algorithm is introduced. This algorithm computes all state variables for models at finite plasticity by minimizing the incremental stress power. The frame of the algorithm is so general that it is applicable for a broad range of constitutive models. An adapted algorithm for fully isotropic material models is also developed. This algorithm is extremely efficient and in many cases it is even more efficient than the corresponding return-mapping algorithm. By numerical examples it is shown that the novel variational consistent algorithm has a comparable precision as the by now classical return-mapping algorithm. Based on the aforementioned variationally consistent algorithm, a novel hybrid homogenization strategy is presented. This strategy relies on the principle of energy equivalence for the scale coupling. As classical FE2 methods for scale transformation are numerically very extensive, an efficient approximation is proposed. By this procedure the effective macroscopic material parameters can be computed very efficiently. Several examples demonstrate the potential of the novel homogenization strategy. In dieser Arbeit wird eine neue hybride Homogenisierungsmethode für elastoplastische Festkörper vorgeschlagen. Hierzu wird ein variationell konsistenter Algorithmus eingeführt, der alle Zustandsvariablen von Festkörpern unter endlichen plastischen Deformationen durch Minimierung der inkrementellen Spannungsleistung berechnet. Dieser Algorithmus ist so allgemein gehalten, dass er für eine große Klasse an Konstitutivmodellen angewandt werden kann. Ein adaptierter Algorithmus für vollständig isotrope Materialmodelle wird zudem behandelt. Dieser ist äußerst effizient, oftmals effizienter als der vergleichbare Return-Mapping-Algorithmus. Anhand numerischer Beispiele wird gezeigt, dass der neue variationell konsistente Algorithmus eine ähnliche Genauigkeit wie der klassische Return-Mapping-Algorithmus besitzt. Aufbauend auf dem zuvor skizzierten variationell konsistenten Algorithmus wird eine neue hybride Homogenisierungsmethode vorgestellt. Diese verwendet zur Skalenkopplung das Prinzip der Energieäquivalenz. Da klassische FE2- Ansätze zum Skalenübergang numerisch sehr aufwendig sind, wird eine effiziente Approximation vorgeschlagen. Mit dieser lassen sich die effektiven Materialparameter für ein makroskopisches Materialmodell effizient berechnen. Mehrere Beispiele demonstrieren das Potential der neuartigen Homogenisierungsmethode. 265 341 248 On the analysis of unreplicated factorial designs This thesis deals with the problems associated with the analysis of unreplicated fractional factorial designs. These are mainly the estimation of the residual variance and the identification of active contrasts by corresponding tests. In this thesis, only orthogonal designs are studied. This work consists of five chapters and is organized as follows: Chapter 1 introduces the problems in the analysis of unreplicated factorial designs and reviews some existing solutions and their limitations. Chapter 2 reviews twelve existing quantitative methods for analyzing unreplicated fractional factorial designs in detail. These are the directed methods, which use an estimate of the standard deviation as the denominator of a test statistic (Lenth (1989), Juan and Pena (1992), and Dong (1993)); outlier­detection techniques (Seheult and Tukey (1982), Le and Zamar (1992)); Bayesian methods (Box and Meyer (1986)); hybrid procedures (Benski (1989), Lawson, et al. (1998)); non­parametric method (Loughin and Nobel (1997)); generalized likelihood ratio test (Al­Shiha and Yang (1999)); the method based on display ratio (Johnson and Tukey (1987)); and the method based on variance homogeneity test (Bissell (1989)), respectively. Chapter 3 presents a new quantitative method, which we call MaxU r ­method. Some of the statistical properties, e.g. the exact null distribution and the power function of this method are discussed and simulated critical values of MaxU r are presented. The exact quantiles and power of the test MaxU r are also derived in the special case when there are only three contrasts (e.g., in the 2 2 design). Finally, four examples are given to illustrate the use of the new method. In chapter 4, all thirteen methods are compared by means of a simulation study. In this simulation study, not only cases where the active contrasts all have the same magnitude are considered, but also cases where the active contrasts differ in magnitude. Chapter 5, the last chapter, summarizes the results of the simulation study, and provides a comparison to those reported before by other authors. It concludes with discussions and an outlook for possible future investigation. Die Arbeit untersucht Probleme bei der Analyse von nichtwiederholten Faktorenplänen, nämlich das Schätzen der Fehlervarianz und die Identifizierung der aktiven Kontraste. In dieser Dissertation werden nur orthogonale Faktorenpläne studiert. Diese Arbeit besteht aus fünf Kapiteln mit der folgenden Struktur: Kapitel 1 stellt die Probleme bei der Analyse von nichtwiederholten Faktorenplänen vor, und präsentiert einige existierende Lösungen und ihre Nachteile. Kapitel 2 stellt zwölf existierende quantitative Methoden für die Analyse von nichtwiederholten Faktorenplänen ausführlich dar. Dies sind direkte Methoden (Lenth 1989, Juan und Pena 1992, und Dong 93); auf Outlier­detection­Technik basierende Methoden (Seheult und Tukey 1982, Le und Zamar 1992); eine Bayes'sche­Methode (Box und Meyer 1986); hybride Verfahren (Benski 1989 und Lawson, u.a. 1998); eine nichtparametrische Methode (Loughin und Nobel 1997); ein generalisierter Likelihood­Ratio­Test (Al­Shiha und Yang 1999); eine auf Display­ratio basierende Methode (Johnson und Tukey 1987) sowie eine auf einem Varianz­Homogenitäts­Test basierende Methode (Bissell 1989). Kapitel 3 schlägt eine neue quantitative Methode vor, die MaxU r genannt wird. Einige statistische Eigenschaften von MaxU r , z.B., die exakte Nullverteilung und die Gütefunktion werden untersucht. Ihre exakten Quantile und die Güte werden berechnet, wenn es nur 3 Kontraste (z.B., im 2² Design) gibt. Simulierte kritische Werte von MaxU r werden für allgemeinere Fälle vorgelegt. Außerdem sind 4 Beispiele gegeben, um die Anwendung des neuen Verfahrens zu demonstrieren. In Kapitel 4 werden alle 13 Methoden durch eine Simulationsstudie miteinander verglichen. Kapitel 5 faßt die Ergebnisse der Simulationsstudie zusammen. Es diskutiert die Ergebnisse und liefert einen Überblick über mögliche zukünftige Forschungen. 266 93 91 Entwicklung einer zweiphasigen Methode zur Hydroaminomethylierung von Olefinen This work describes the development of a two phase hydroaminomethylation process of olefines. The research concentrates on the following three biphasic systems: organic phase/water, toluene/triethylenglykol and organic phase/ionic liquids. Especially using the biphasic system organic phase/ionic liquid results in an easy reaction between olefines and primary or secondary amines. For the reaction the application of rhodium(I) complexes is particularly useful. The recycling of the catalyst bearing phase is especially guaranteed while using the ionic liquid system. Beside the hydroaminomethylation process the ionic liquid system is useful for tandem hydroformylation/intramolecular hemi-acetalisation of hydroxy-functionalized olefines. Die vorliegende Arbeit beschreibt die Entwicklung einer zweiphasigen Methode zur Hydroaminomethylierung von Olefinen. Dazu werden drei verschiedene Zweiphasensysteme untersucht: organische Phase/Wasser, Toluol/Triethylenglykol und organische Phase/Ionic Liquids. Insbesondere das Zweiphasensystem organische Phase/Ionic Liquids erweist sich als geeignet eine Vielzahl von Olefinen mit primären und sekundären Aminen umzusetzen. Als Katalysatorsysteme eignen sich besonders Rhodium(I)-Komplexe. Eine Wiederverwendung der katalysatortragenden Phase ist insbesondere bei Verwendung der Ionic Liquids möglich. Neben der Hydroaminomethylierung von Olefinen lassen sich in Ionic Liquids auch Tandem Hydroformylierung/intramolekulare Hemi-Acetalisierung an hydroxy-funktionalisierten Olefinen durchführen 267 79 75 Officialism on the data highway - Will multimedia and the internet also trigger "online administration"? The use of information and communication technology in public administrations is connected with expectations about administrative reorganisation and modernisation. The following contribution confronts technical blueprints with the current situation of public administrations. Despite existing deficits in the administrative use of technical applications, municipalities especially have to act as "mediator" between different actors in regional online-projects to promote the development of mutually used technical systems. Amtsschimmel auf der Datenautobahn 268 115 126 Successfil Groupwork. The Art of Selecting Group Members The aim of the study is to illuminate the relationship between group composition (group size; gender, age, and motivation of group members) and the effects of group working. The results are based on a questionnaire distributed to workers within eight Swedish industries (n=754). The results suggest that aspects which are possible for management to influence and develop when group work is implemented like motivation (here measured as use of group members aptitudes and skills, autonomy and job satisfaction) has a positive impact on the effects of working in groups. Group composition according to gender and age contributes little to our understanding of what makes group work effective. Erfolgreiche Arbeit in Gruppen 269 195 147 Is the demographical time-bomb ticking? Current facts and figures on effects of the demographical change on labour supply and demand The effects of the population trends on labour supply will be twofold: a shrinking and an ageing working population. Within the next 10 to 15 years the size of the labour force will only decline moderately, but this process will speed up much thereafter. Neither increasing participation rates nor "normal" immigration flows can fully compensate the effect of the decreasing size of the working-age population on labour supply. One likely result of this development will be a shortage of younger workers. Demographic trends are also likely to have some effects on labour demand. But these effects are much less ascertain than those on the supply side and they are of less degree than some other factors, like globalisation. There is however some evidence that the demographic shift will change the structure of labour demand. Optimistically one can conclude that the difference between labour supply and labour demand will decrease. The bad news is that labour market problems will not ease automatically. A rising demand for highly qualified workers is faced with an ageing labour force. Tickt sie, die demografische Zeitbombe? 270 272 265 Auslegung und Berechnung von kurzglasfaserverstärkten Kunststoffbauteilen in Lenksystemen Short glass fiber-reinforced plastic (sfrp) parts are increasingly used as structural parts bearing mechanical loads in passenger car steering systems and thus subjected to quasistatic loads as well as a large number of load cycles. The design of these parts is frequently based on isotropic, linear elastic, numeric calculations, although it is possible to take into account the nonlinear, elastoplastic and anisotropic material behavior for calculations of sfrp parts. This fact results in potential improvements regarding product development, which are shown in this work. In addition, these improvements are part of the product development process of sfrp parts in passenger car steering systems. Different models for the description of quasistatic mechanical material behavior will be compared within this document. Calculation results used for modelling the deformation are rated. Regarding cyclic stress on sfrp within steering systems, a prediction for lifetime is introduced as a strain-based design concept. This concept will enable a more exact prediction than the one currently used for the design of parts. Besides the calculation enhancement for sfrp materials for steering systems, all parameters having an influence on the mechanical material behavior must be considered. Here, the influences from the manufacturing and operation of the steering system should be taken into account, as well as environmental influences. Influences from parts manufacturing and the usage of steering systems show deviations and therefore have a different effect on the mechanical material behavior. Within this paper, these variations are described and the influence on quasistatic, as well as cyclic, mechanical material behavior, is explored. The goal of this investigation is to reach a reliable prediction of loading and durability of sfrp materials. Kurzglasfaserverstärkte (kgfv) Kunststoffbauteile werden zunehmend häufig im Kraftfluss von Pkw-Lenksystemen verbaut. Dabei sind die Bauteile sowohl hohen quasistatischen Lasten als auch einer Vielzahl von niedrigen, sich zyklisch wiederholenden Belastungen ausgesetzt. Die Auslegung dieser Bauteile findet auf Basis von isotropen, linearelastischen numerischen Berechnungen statt, obwohl heutzutage das nichtlineare, elastoplastische und anisotrope Werkstoffverhalten von kgfv Kunststoffen in der Simulation berücksichtigt werden kann. Daraus ergeben sich Potentiale insbesondere für Verbesserungen bei der Produktentwicklung, welche diese Arbeit aufzeigt. Zudem werden diese Verbesserungen in den Produktentstehungsprozess von Lenkungsbauteilen aus kgfv Kunststoff integriert. In einer Gegenüberstellung unterschiedlicher Modelle zur Beschreibung des quasistatischen, mechanischen Werkstoffverhaltens von kgfv Kunstoffen findet in dieser Arbeit ein Vergleich und eine Bewertung der Berechnungsergebnisse hinsichtlich der Abbildung der Beanspruchung und der Beanspruchbarkeit statt. Zur Vorhersage der Lebensdauer der kgfv Kunststoffbauteile unter zyklischer Belastung in Lenksystemen wird ein dehnungsbasierter Ansatz vorgestellt. Dieser soll eine genauere Prognose als die momentane Auslegung der Bauteile ermöglichen. Neben der Verbesserung der Berechnung des Verhaltens von kgfv Kunststoffen in Pkw-Lenksystemen müssen Einflussgrößen berücksichtigt werden, die Auswirkungen auf das mechanische Werkstoffverhalten haben. Hier sind vor allem Einflüsse aus der Herstellung, dem Betrieb des Lenksystems sowie die Umwelteinflüsse zu nennen. Die Einflüsse aus der Herstellung der Bauteile und dem Betrieb des Lenksystems unterliegen Streuungen und wirken sich dadurch unterschiedlich stark auf das mechanische Werkstoffverhalten aus. Die vorliegende Arbeit beschreibt diese Streuungen und analysiert ihren Einfluss sowohl auf das quasistatische als auch auf das zyklische, mechanische Werkstoffverhalten. Das Ziel dieser Untersuchung ist es, eine zuverlässige Vorhersage der Belastung, der Beanspruchung und Beanspruchbarkeit von kgfv Kunststoffen treffen zu können. 271 200 221 Ruthenium-katalysierte trans-Hydrostannierung von Alkinen und verwandte Reaktionen A ruthenium-catalyzed trans-selective hydrostannation of internal alkynes was developed. In addition to the unusual trans-addition mode, the reaction exhibits high functional group tolerance. Furthermore, excellent regioselectivity was achieved by employing a [Cp*RuCl]-catalyst in combination with alkynes possessing an appendant protic functionality as a directing group. Single crystal X-ray crystallography of a propargylic alcohol and HSnBu3 coordinated to catalytically relevant [“Cp”RuCl]-fragments suggested that interligand interactions of the acidic proton as well as the tin center with the chloride-ligand are accountable for the observed regioselectivity. The utility of the developed protocol in a more complex context was showcased by a total synthesis of 5,6-dihydrocineromycin B. The combination of trans-hydrostannation, alkyne metathesis, and an optimized Stille-protocol enabled the selective synthesis of the naturally abundant (E)-2-methylbut-2-en-1-ol motif. Hydrogen bonding between a protic functionality near a π-system and a chloride ligand to activate and pre-organize the reaction partners was further exploited for the development of a ruthenium-catalyzed regio- and diastereoselective alkene-alkyne coupling. Furthermore, the development of a regio- and stereoselective syn-addition of dimethylzinc to (homo-)propargylic ethers showed that [Cp*Ru]-catalysts are also effective in carbometallations of alkynes. Finally, a ruthenium-catalyzed reductive cyclopropanation was developed that utilizes a ruthenium carbene generated via geminal hydrogenation of an alkyne. Eine Ruthenium-katalysierte trans-selektive Hydrostannierung interner Alkine wurde entwickelt. Neben der für die Übergangsmetallkatalyse unüblichen trans-Addition, zeichnet sich die Reaktion durch eine hohe Toleranz gegenüber funktionellen Gruppen aus. Besonders wenn Alkine mit einer nahen protischen Funktionalität in Kombination mit einem [Cp*RuCl]-Katalysator verwendet wurden, konnte außerdem eine exzellente Regioselektivität erreicht werden. Untersuchungen der Bindungsmodi eines propargylischen Alkohols und des Stannans an katalytisch relevante [„Cp“RuCl]-Fragmente via Kristallstrukturanalyse legten nahe, dass Interligand-Interaktionen des aziden Protons am Alkin beziehungsweise des Zinns mit dem Chlorid-Liganden die Reaktionspartner für die Reaktion optimal ausrichten und die Regioselektivität bestimmen. Auf diese Art konnte auch die Regioselektivität anderer trans-Hydrometallierungen kontrolliert werden. Die Anwendbarkeit dieser neu entwickelten Reaktion auf komplexere Zielstrukturen wurde durch die Totalsynthese von 5,6-Dihydrocineromycin B unter Beweis gestellt. In Kombination mit einer Alkinmetathese und einer zu diesem Zweck optimierten Stille-Kupplung konnte das in der Natur oft vorkommende (E)-2-Methylbut-2-en-1-ol Strukturmotiv im Makrozyklus selektiv dargestellt werden. Die aktivierende und dirigierende Wirkung der Wasserstoffbrücke einer protischen Funktionalität in der Nähe eines π-Systems wurde des Weiteren dazu benutzt, eine Ruthenium-katalysierte, regio- und diastereoselektive Alken-Alkin Kupplung zu entwickeln. Anhand einer regio- und stereoselektiven syn-Addition von Dimethylzink an (homo-)propargylische Ether konnte zudem gezeigt werden, dass [Cp*Ru]-Komplexe auch in Carbometallierungs-Reaktionen katalytische Aktivität aufweisen. Zuletzt wurde eine Ruthenium-katalysierte, reduktive Zyklopropanierung entwickelt, die über ein durch geminale Hydrierung entstehendes Ruthenium-Carben verläuft. 272 82 96 Structural change of the economy and taking the strain off the environment Strukturwandel der Wirtschaft und Entlastung der Umwelt On theoretical reflection, growth and decline are inherent elements of structural change of the economy; and empirical analysis shows that they should be made elementary parts of an ecological structural policy. On basis of international comparisons, this article shows that autonomous structural change of the economy is a necessary though not sufficient condition of sustainable development. In practice, policies are still much needed to promote ecological modernization of industrial society. Schrumpfen und Wachsen sind, wie die theoretische Reflexion zeigt, inhärente Bestandteile des Strukturwandels der Wirtschaft und sie sollten, wie die empirische Analyse erweist zu elementaren Bestandteilen einer ökologischen Strukturpolitik werden. In diesem Aufsatz wird anhand vergleichender empirischer Studien festgestellt dass der autonome wirtschaftliche Strukturwandel zwar eine notwendige, jedoch keine hinreichende Bedingung einer nachhaltigen Entwicklung (sustainable development) ist. In der Praxis ist Politik daher weiterhin gefragt eine effektive ökologische Politik allerdings, die vor allem aber nicht ausschließlich von zwei Ressorts formuliert und implementiert werden muss: der Umwelt und der Wirtschaftspolitik. 273 407 408 Exact algorithms for network design problems using graph orientations The subject of this thesis are exact solution strategies for topological network design problems. These combinatorial optimization problems arise in various real-world scenarios, as, e.g., in the telecommunication and energy industries. The prime task thereby is to plan or extend networks, physically connecting customers. In general we can describe such problems graph-theoretically as follows: Given a set of nodes (customers, street crossings, routers, etc.), a set of edges (potential connections, e.g., cables), and a cost function on the edges and/or nodes. We ask for a subset of nodes and edges, such that the sum of the costs of the selected elements is minimized while satisfying side-conditions as, e.g., connectivity, reliability, or cardinality. In this thesis we concentrate on two special classes of topological network design problems: the k-cardinality tree problem (KCT) and the f0,1,2g-survivable network design problem (f0,1,2g-SND) with node-connectivity constraints. These problems are in general NP-hard, i.e., according to the current knowledge, it is very unlikely that optimal solutions can be found efficiently (i.e., in polynomial time) for all possible problem instances. The above problems can be formulated as integer linear programs (ILPs), i.e., as systems of linear inequalities, integral variables, and a linear objective function. Such models can be solved using methods of mathematical programming. Generally, the corresponding solutions methods can be very time-consuming. This was often used as an argument for developing (meta-)heuristics to obtain solutions fast, although at the cost of their optimality. However, in this thesis we show that, exploiting certain graph-theoretic properties of the feasible solutions, we are able to solve large real-world problem instances to provable optimality efficiently in practice. Based on orientation properties of optimal solutions we formulate new, provably stronger ILPs and solve them via specially tailored branch-and-cut algorithms. Our extensive polyhedral analyses show that these models give tighter descriptions of the solution spaces and also offer certain algorithmic advantages in practice. In the context of f0,1,2g-SND we are able to present the first orientation property of 2-node-connected graphs which leads to a provably stronger ILP formulation, thereby answering a long standing open research question. Until recently, both our problem classes allowed optimal solutions only for instances with roughly up to 200 nodes. Our experimental results show that our new approaches allow instances with thousands of nodes. Especially for the KCT problem, our exact method is often even faster than state-of-the-art metaheuristics, which usually do not find optimal solutions. Gegenstand dieser Dissertation sind exakte Lösungsverfahren für topologische Netzwerkdesignprobleme. Diese kombinatorischen Optimierungsprobleme tauchen in unterschiedlichen realen Anwendungen auf, wie z.B. in der Telekommunikation und der Energiewirtschaft. Die grundlegende Problemstellung dabei ist die Planung bzw. der Ausbau von Netzwerken, die Kunden durch physikalische Leitungen miteinander verbinden. Im Allgemeinen lassen sich solche Probleme graphentheoretisch wie folgt beschreiben: Gegeben eine Menge von Knoten (Kunden, Straßenkreuzungen, Router u.s.w.), eine Menge von Kanten (potenzielle Verbindungsmöglichkeiten) und eine Kostenfunktion auf den Kanten und/oder Knoten. Zu bestimmen ist eine Teilmenge von Knoten und Kanten, so dass die Kostensumme der gewählten Elemente minimiert wird und dabei Nebenbedingungen wie Zusammenhang, Ausfallsicherheit, Kardinalität o.ä. erfüllt werden. In dieser Dissertation behandeln wir zwei spezielle Klassen von topologischen Netzwerkdesignproblemen, nämlich das k-Cardinality Tree Problem (KCT) und das {0,1,2}-Survivable Netzwerkdesignproblem ({0,1,2}- SND) mit Knotenzusammenhang. Diese Probleme sind im Allgemeinen NP-schwer, d.h. nach derzeitigem Stand der Forschung kann es für solche Probleme keine Algorithmen geben die eine optimale Lösung berechnen und dabei für jede mögliche Instanz eine effiziente (d.h. polynomielle) Laufzeit garantieren. Die oben genannten Probleme lassen sich als ganzzahlige lineare Programme (ILPs) formulieren, d.h. als Systeme aus linearen Ungleichungen, ganzzahligen Variablen und einer linearen Zielfunktion. Solche Modelle lassen sich mit Methoden der sogenannten mathematischen Programmierung lösen. Dass die entsprechenden Lösungsverfahren im Allgemeinen sehr zeitaufwendig sein können, war ein oft genutztes Argument für die Entwicklung von (Meta-)Heuristiken um schnell eine Lösung zu erhalten, wenn auch auf Kosten der Optimalität. In dieser Dissertation zeigen wir, dass es, unter Ausnutzung gewisser graphentheoretischer Eigenschaften der zulässigen Lösungen, durchaus möglich ist große anwendungsnahe Probleminstanzen der von uns betrachteten Probleme beweisbar optimal und praktisch-effizient zu lösen. Basierend auf Orientierungseigenschaften der optimalen Lösungen, formulieren wir neue, beweisbar stärkere ILPs und lösen diese anschließend mit Hilfe maßgeschneiderter Branch-and-Cut Algorithmen. Durch umfangreiche polyedrische Analysen können wir beweisen, dass diese Modelle einerseits formal stärkere Beschreibungen der Lösungsräume liefern als bisher bekannte Modelle und andererseits für Branch-and-Cut Verfahren viele praktische Vorteile besitzen. Im Kontext des {0,1,2}-SND geben wir zum ersten Mal eine Orientierungseigenschaft zweiknotenzusammenhängender Graphen an, die zu einer beweisbar stärkeren ILP-Formulierung führt und lösen damit ein in der Literatur seit langem offenes Problem. Unsere experimentellen Ergebnisse für beide Problemklassen zeigen, dass während noch vor kurzem nur Instanzen mit weniger als 200 Knoten in annehmbarer Zeit berechnet werden konnten unsere Algorithmen das optimale Lösen von Instanzen mit mehreren tausend Knoten erlauben. Insbesondere für das KCT Problem ist unser exaktes Verfahren oft sogar schneller als moderne Metaheuristiken, die i.d.R. keine optimale Lösungen finden. 274 188 187 Hydrostannierung funktionalisierter Alkine mit gemischten Zinnhalogenidhydriden, Klärung von Struktur und Mechanismus mittels NMR-Spektroskopie The formation of new C-C bonds is a challenge for synthetic organic chemists. A very versatile method to achieve this goal is the palladium-catalyzed cross-coupling of organic electrophiles with tetraorganostannanes (Stille-coupling). The building up of unsaturated fragments with defined configuration becomes possible by the use of vinylstannanes. A straightforward way to vinylstannanes is the hydrostannation of alkynes.In this thesis the hydrostannation of alkynols (mostly propargylic alcohols) with modified tin hydrides, the determination of product structures via nmr spectroscopy and the consecutive Stille-coupling of the reaction products is presented. As reagents for hydrostannation the mixed tin hydrides Bu2SnHCl and Bu2SnHBr are used. These tin hydrides of increased reactivity make radical reactions at low to ambient temperatures possible (-78 °C to 25 °C). Their higher lewis acidity (in comparison with the most used hydrostannation reagent Bu3SnH) leads to much better regio- and stereoselectivities.During the last decade serious concern about the use of organotin compounds in synthesis has been expressed, that's why investigations on the reduction of the amount of used organotin compound (use of catalytic amounts) and on the improval of seperation techniques (fluorous biphase chemistry) have been carried out. Das Knüpfen neuer C-C-Bindungen ist häufig eine Aufgabe des organischen Synthetikers. Eine in letzter Zeit sehr beliebte Methode hierfür ist die Palladium-katalysierte Kupplung organischer Elektrophile mit Tetraorganostannanen (Stille-Kupplung). Diese Methode ist sehr vielseitig und erlaubt zum Beispiel auch die Einführung ungesättigter Fragmente mit definierter Konfiguration durch die Verwendung von Vinylstannanen. Einer der direktesten Wege zur Darstellung von Vinylstannanen ist die Hydrostannierung von Alkinen. Ziel dieser Arbeit ist nun die Untersuchung der Hydrostannierungsreaktionen von Alkinolen (v.a. Propargylalkohole) mit modifizierten Zinnhydriden, die Untersuchung der Strukturen der Produkte mit NMR-Spektroskopie sowie ihre nachfolgende Stille-Kupplung. Als Hydrostannierungs-reagenzien werden die gemischten Zinnhalogenidhydride Bu2SnHCl und Bu2SnHBr verwendet. Diese zeichnen sich durch erhöhte Reaktivität aus, sodaß die mit Ihnen durchgeführten Radikalreaktionen im Temperaturbereich zwischen -78 °C und Raum-temperatur ablaufen. Die im Vergleich mit dem bekanntesten Hydrostannierungs-reagenz Bu3SnH erhöhte Lewis-Acidität führt zu meist wesentlich höheren Regio- und Stereo-selektivitäten.Augrund der in letzter Zeit vermehrt geäußerten Bedenken gegenüber dem Einsatz von Organozinnverbindungen in der Synthese werden auch Untersuchungen zur Vermeidung von Zinnverbindungen (Einsatz katalytischer Mengen) bzw. zur Verbesserung der Trennstrategien (fluorous biphase chemistry) gemacht. 275 270 224 Maximum Cycle Packing – Obere Schranken an Kreispackungszahlen in polyhedralen Graphen In many areas of operations research, graph-theoretical concepts and characteristics are of fundamental importance when modeling optimization problems. Two figures treated in this work are given by the so-called vertex- or edge-disjoint circle packing numbers of a graph. Application examples showing the practical relevance of the number of cycles packings or maximum cycle packings include genome rearrangement in biology, the design of optical networks or tour planning. In general, the determination of a maximum cycle packing as well as the associated number of cycle packing is a problem that is NP complete. Accordingly, heuristics are used to approximate these figures or special structural properties of the graphs under consideration are required in order to give exact results for or good bounds on the cycle packing numbers. This is exactly where this work focuses upon. For selected polyhedral graphs as well as two subclasses of polyhedral graphs, which are the class of Halin graphs and the fullerene graphs, a best possible upper bounds on the considered subclass are derived. In addition, a construction system for graphs is presented in such a way that a maximum cycle packing can also be specified within the selected graph. For polyhedral graphs with a fixed order and size, it was possible to specify upper bounds on cycle packing numbers. In addition, it was proven for Halin graphs and fullerene graphs that the edge-disjoint cycle packing number is equal to the independence number of the dual graph. For fullerene graphs, a best possible upper bound which does not increase monotonically in the order of the given graph, could be derived for the edge-disjoint cycle packing number. In vielen Bereichen des Operations Research sind graphentheoretische Konzepte und Kennzahlen bei der Modellierung von Optimierungsproblemen von grundlegender Bedeutung. Zwei in dieser Arbeit speziell behandelte Kennzahlen sind durch die sog. knoten- bzw. kantendisjunkte Kreispackungszahlen eines Graphen gegeben. Anwendungsbeispiele, die die praktische Relevanz der Kreispackungszahlen bzw. der maximalen Kreispackungen zeigen, bilden u.a. das Genom Rearrangement in der Biologie, die Ausgestaltung optischer Netzwerke oder die Rundgangsplanung. Im Allgemeinen ist die Bestimmung einer maximalen Kreispackung sowie der zugehörigen Kreispackungszahl ein NP-schweres Problem. Demnach werden Heuristiken zur Annäherung der Kennzahlen herangezogen bzw. spezielle Struktureigenschaften der betrachteten Graphen gefordert, um exakte Resultate für bzw. gute Schranken an die Kreispackungszahlen anzugeben. Genau hier setzt diese Arbeit an und es werden für speziell gewählte polyhedrale Graphen sowie zwei Unterklassen polyhedraler Graphen mit der Klasse der Halin-Graphen und den Fulleren-Graphen bestmögliche obere Schranken an die betrachtete Unterklasse angegeben. Zudem wird jeweils eine Konstruktionssystematik von Graphen vorgestellt, derart, dass auch eine maximale Kreispackung innerhalb der gewählten Graphen angegeben werden kann. Es gelang für polyhedrale Graphen mit fester Ordnung und Größe, obere Schranken an Kreispackungszahlen anzugeben. Zudem wurde für Halin-Graphen und Fulleren-Graphen bewiesen, dass die kantendisjunkte Kreispackungszahl gleich der Unabhängigkeitszahl des zugehörigen Dualgraphen ist. Für Fulleren-Graphen konnte eine in der Ordnung nicht monoton wachsende bestmögliche obere Schranke an die kantendisjunkte Kreispackungszahl abgeleitet werden. 276 189 164 Even a hundred years after Max Weber’s death, communication studies and journalism can still learn from him: his fundamental notion of social action supports the legitimacy and chances of realistic media criticism; his concept of a large press survey looks more comprehensively at public communication processes than later formulas and models; his ideas on ethics promote a civilized basic attitude of weighing up in politics, science and journalism; his typology of modes of action, which is based on concepts of rationality, encourages an expansion, which makes the basic problems of social self-regulation more easily recognizable and, among other things, allows for a better understanding of the social potential of the media; and his concept of an understanding sociology half a century before Habermas points to the practical significance of the cognitive interest in understanding, which historical-hermeneutic disciplines have to serve. The argumentation is based on the thesis that the value of a classic such as Max Weber lies above all in the fact that his work, with ongoing differentiation and parcelling out of even the (communication) sciences themselves does not lose sight of the social connections of media phenomena. Handeln, Kritik, Verständigung 277 165 134 Modellierung des reibungsbehafteten Rollkontakts elasto-plastischer metallischer Festkörper A steady state rolling process of an elastic-plastic work-hardening body is formulated as a unilateral rolling contact problem taking dry friction into account. The formulation of this steady state rolling contact problem leads to a minimization of a variational nonlinear functional. Within the framework of the active set strategy a two dimensional roll contact algorithm is developed, including a slip model of Coulomb friction. The use of a penalty regularization of the kinematic contact constraint together with the nite 121 192 148 205 element method is applied to solve the problem. The unknown distributions of the pressure and traction on the contact surface are evaluated from the contact forces using a lumped transformation method. Numerical simulations with the new developed roll contact algorithm are carried out to study the deformation behavior of the workpiece as well as the contact stress distributions. To indicate the inuence of friction, stick-slip zones in the contact region and the subsurface stress distribution in the workpiece are depicted as well. In der vorliegenden Arbeit wird ein stationärer Walzprozess eines elastisch-plastischen Körpers mit Materialverfestigung als unilateraler Rollkontakt unter Berücksichtigung trockener Festkörperreibung formuliert. Die mathematische Beschreibung des stationären Rollkontakts führt auf die Minimierung eines nichtlinearen Variationsfunktionals. Im Rahmen der Active-Set-Strategie wird ein zweidimensionaler Rollkontakt-Algorithmus entwickelt, in den ein Coulomb'sches Gleitreibungsmodell integriert ist. Unter Anwendung einer Penalty-Regularisierung der geometrischen Rollkontaktbedingungen wird das Problem mit Hilfe der Finite-Elemente-Methode näherungsweise gelöst. Die unbekannten Verteilungen von Normal- und Tangentialspannung in der Kontaktoberfläche werden aus der Transformation der Kontaktknotenkräfte mit Hilfe einer diagonalisierten Kontaktflächenmatrix berechnet. Anhand numerischer Simulationen wird das Verformungsverhalten des Walzguts sowie Kontaktspannungsverteilungen mit dem neu entwickelten Rollkontaktalgorithmus untersucht. Um den Einfluss der Reibung zu zeigen, sind auch die Haft- und Gleitzonen in der Kontaktfläche und die oberflächennahen Spannungsverteilungen im Walzgut dargestellt. 278 325 429 Non-stationary optical homodyne tomography The ability to measure the quantum state of light is an important ingredient in the development of photonic quantum technologies such as optical quantum computing or secure quantum communication. A quantum state comprises all information one can have about a quantum system. Since quantum physics is a statistical theory, a quantum state cannot be captured with a single measurement. Therefore, usually, measurements on an ensemble of identically prepared copies of the quantum system under study must be performed for quantum state reconstruction. Optical homodyne tomography (OHT) is a well established technique frequently used to reconstruct the quantum state of a light field. It requires a reference beam, which is called the local oscillator (LO), that is interfered with the signal light field on a beam splitter before being recorded with homodyne detection. For light fields in pure quantum states, OHT reconstructs the full quantum state. Light fields in mixed states, however, consist of a hidden instantaneous state at every instant, but adopt several such states over time due to an unknown coupling to the environment. In such cases, OHT reconstructs the weighted average of all underlying instantaneous states. In an experiment, light fields in pure states provide a fixed phase relationship between the LO and the signal light field, which is required for OHT to reconstruct the complete quantum state. If a signal field is not phase-locked to the LO, for instance in the case of thermal light, the aforementioned averaging takes place. In order to overcome the limitations of stationary OHT with respect to mixed states, this work introduces the technique of non-stationary OHT. It features two additional homodyne detection channels that aim at recording the required phase information. Since these two channels measure the light field's complete Husimi-Q phase space function, including information about its amplitude, time-resolved measurements are possible. They can be achieved by introducing a delay between the original homodyne detection channel and the additional two channels. Die Möglichkeit, den Quantenzustand von Licht zu messen, ist eine wichtige Komponente in der Entwicklung photonischer Quantentechnologien wie der optischen Quanteninformationsverarbeitung oder der sicheren Quantenkommunikation. Ein Quantenzustand beinhaltet alle Informationen, die jemand über ein Quantensystem besitzen kann. Da Quantenphysik eine statistische Theorie ist, kann ein Quantenzustand nicht mit einer einzelnen Messung ermittelt werden. Deshalb müssen zur Quantenzustandsrekonstruktion üblicherweise Messungen an einem Ensemble identisch präparierter Kopien eines Quantensystems erfolgen. Optische homodyne Tomographie (OHT) ist eine etablierte und oft genutzte Technik, um den Quantenzustand eines Lichtfelds zu rekonstruieren. Sie benötigt einen Referenzstrahl, den Lokaloszillator (LO), der mit dem Signalfeld auf einem Strahlteiler überlagert wird, bevor er homodyn detektiert wird. Für Lichtfelder in reinen Zuständen rekonstruiert OHT den kompletten Quantenzustand. Lichtfelder in gemischten Zuständen bestehen jedoch zu jedem Zeitpunkt aus versteckten instantanen Zuständen und nehmen verschiedene solcher Zustände aufgrund einer unbekannten Wechselwirkung mit der Umgebung an. In solchen Fällen rekonstruiert OHT den gewichteten Mittelwert der zugrundeliegenden instantanen Zustände. Im Experiment stellen Lichtfelder in reinen Zuständen eine feste Phasenbeziehung zwischen dem LO and dem Signalfeld zur Verfügung, die benötigt wird, um mittels OHT den vollständigen Quantenzustand zu rekonstruieren. Die Mittelung findet statt, falls das Signalfeld keine feste Phasenbeziehung zum LO hat, beispielsweise im Fall von thermischem Licht. Um die Grenzen stationärer OHT in Bezug auf gemischte Zustände zu überwinden, wird in dieser Arbeit die Technik der nicht-stationären OHT eingeführt. Sie weist zwei zusätzliche homodyne Detektionskanäle auf, die darauf abzielen, die benötigte Phaseninformation zu messen. Da diese beiden Kanäle die vollständige Husimi-Q Phasenraumfunktion des Signallichts, inklusive der Amplitudeninformation, aufnehmen, sind zeitaufgelöste Messungen damit möglich. Sie können umgesetzt werden, indem eine zeitliche Verzögerung zwischen dem ursprünglichen und den beiden neuen Kanälen eingeführt wird. Zuerst wurde ein Aufbau zur stationären OHT entwickelt. Zusätzlich zur OHT konnte er aufgrund seiner hohen Geschwindigkeit zur schnellen Beobachtung der gleichzeitigen Korrelationsfunktion zweiter Ordnung g^((2) ) (0) mit Abtastraten bis zu 100kHz eingesetzt werden. Dies wurde genutzt, um Bistabilitäten und mögliche multiple Moden in der Emission eines Diodenlasers nachzuweisen, der über die Laserschwelle hinweg betrieben wurde. Mit dem nachfolgend entwickelten Detektor zur nicht-stationären OHT konnten zwei Ergebnisse erzielt werden: Erstens wird durch die Aufspaltung des Signallichtfelds in mehrere Teile zusätzliches Rauschen in die Messung eingebracht. Der Detektor konnte nahe an diesem theoretischen Rauschlimit betrieben werden und wir konnten erfolgreich zeigen, dass die im Lichtfeld versteckten Zustände kohärenten Zuständen ähneln. Zweitens wurde die Zeitentwicklung dieser Zustände ermittelt und konnte der Dephasierung aufgrund von inhomogener Verbreiterung zugeordnet werden. Die erfolgreiche Implementierung nicht-stationärer OHT ist ein Schritt hin zur Entwicklung photonischer Quantengeräte und könnte die vollständige Charakterisierung beliebiger Lichtfelder in Phase und Amplitude erlauben. 279 184 155 Quasiparticle decay induced by spin anisotropies in the frustrated spin ladder system BiCu2PO6 The inorganic compound BiCu2PO6 contains tubelike structures, which are described magnetically by weakly coupled frustrated spin ladders with a finite energy gap. The elementary excitations are triplons of which the degeneracy is lifted due to Dzyaloshinskii-Moriya interactions. In certain regions of the Brillouin zone the lifetime of the triplon excitation modes becomes finite due to the hybridization of the single-triplon with the two-triplon states. In addition, the dispersions of these triplon modes show a striking down-bending before ceasing to exist. In experiment, BiCu2PO6 shows various types of decay processes, which can be caused by different symmetry breaking interactions. In previous studies, we established a minimal model to include all symmetry-allowed interactions, such as the Dzyaloshinskii-Moriya interaction. Based on this minimal model, we show in this thesis that isotropic and anisotropic effects are responsible for noticeable quasiparticle decay and certain down-shifts of the single-triplon energies. The analyses are based on a deepCUT approach for the isotropic case augmented by a perturbative treatment of the anisotropic couplings inducing quasiparticle decay at zero temperature. Die anorganische Verbindung BiCu2PO6 enthält röhrenartige Strukturen, welche magnetisch durch schwach gekoppelte frustrierte Spinleitern mit einer endlichen Energielücke beschrieben werden. Die elementaren Anregungen sind Triplonen dessen Entartung aufgrund der Dzyaloshinskii-Moriya Wechselwirkungen aufgehoben ist. In bestimmten Bereichen der Brillouin Zone wird die Lebensdauer der Triplonen endlich aufgrund der Hybridisierung der Eintriplon- mit den Zweitriplonenzuständen. Zusätzlich zeigen diese Triplonmoden ein auffälliges Abknicken bevor sie aufhören zu existieren. Im Experiment weist BiCu2PO6 unterschiedliche Typen von Zerfallsprozessen auf, die durch verschiedene symmetriebrechende Wechselwirkungen verursacht sein könnten. In vorherigen Untersuchungen habe wir ein minimales Model aufgestellt, um alle aufgrund von Symmetrie erlaubten Wechselwirkungen, wie die Dzyaloshinskii-Moriya Wechselwirkung, zu berücksichtigen. Auf Grundlage dieses minimalen Models zeigen wir in dieser Arbeit, dass isotrope und anisotrope Effekte für erkennbaren Quasiteilchenzerfall und bestimmte Absenkungen der Eintriplonenenergien verantwortlich sind. Die Analysen basieren auf einem deepCUT Ansatz für den isotropen Fall, ergänzt durch eine störungstheoretische Behandlung der anisotropen Kopplungen, die Quasiteilchenzerfall bei Temperatur gleich Null induzieren. 280 81 74 Performance Appraisal and Sex Discrimination. Critically constructive remarks The influence of performance appraisal and performance-based payment models is rising. Therefore, it should be considered if and possibly how performance appraisal instruments contain or produce sources of sex discrimination. The article undertakes a critical review of what we usually call "performance", provides a description of performance appraisal as a social process and explains some crucial sources of discrimination within. Finally, directions for the development and evaluation of performance appraisal instruments are suggested. Leistungsbeurteilung und Geschlechtsdiskriminierung 281 268 262 Synthese von Naturstoff-basierten Substanzbibliotheken The following thesis describes the synthesis of natural product inspired compound libraries. The synthesis of depsipeptides Chondramid C and analogues was conducted. The synthesis strategy was based on an efficient solid phase synthesis with subsequent metathesis reaction to the cyclic products. The solid supported linker was constructed via Wittig olefination. On solid support the polypeptide and polyketide structures were esterified. An amidation on solid support linked the polypeptide part with the polyketide part. After cleavage from the solid support the depsipeptides were formed via a ring closing metathesis reaction. A compound library based on the picolinamide and benzamide scaffold was synthesized. Differently substituted carboxylic acids reacted with different amines forming an amide bond. The compound library was tested for its biological activity within a cooperation with genetic, biochemical and in silico investigations. Potent Sec14p inhibitors were found from the compound library. A compound library based on the oxazolidinone scaffold was synthesized. N-acylated auxiliaries, hydrogenated alkylated oxazolidinones, oxazolidinones without stereo center at the side chain and syn-aldol products were synthesized. By means of an asymmetric alkylation with sodium hexamethyldisilazide different alkylated oxazolidinones were constructed. The compound library was tested within a cooperation in genetic and biochemical assays. A weak Sec14p inhibitor was found. In contrast to intermolecular 1,3-dipolar cycloadditions intramolecular enantioselective 1,3-dipolar cycloadditions are virtually unexplored. In this thesis an enantioselective intramolecular 1,3-dipolar cycloaddition from azomethine ylides was developed constructing quinoline-pyrrolidinyl-spirooxindoles. First N-Aryl-amides were synthesized. After deprotection the Schiff base was established in situ, which reacted in a subsequent copper(II) catalyzed intramolecular cycloaddition forming spiro compounds. With a cell painting assay a novel bioactivity was found for this chemotype. Die vorliegende Arbeit beschreibt die Synthese von Naturstoff-basierten Substanzbibliotheken. Die Synthese des Depsipeptids Chondramid C und seiner Analoga wurde im Rahmen dieser Arbeit untersucht. Die Synthesestrategie beruht auf einer effizienten Festphasensynthese mit anschließender Ringschlussmetathese. Der an fester Phase gebundene Linker wurde durch eine Wittig-Olefinierung aufgebaut. Durch eine Veresterung an fester Phase wurde die Polypeptid- mit der Polyketidstruktur verknüpft. Ebenfalls an fester Phase erfolgte durch eine Amidbildung die Verknüpfung der Polypeptidstruktur mit der Polyketidstruktur. Nach Abspaltung von der festen Phase wurden die Depsipeptide durch Ringschlussmetathese aufgebaut. In dieser Arbeit wurde eine Substanzbibliothek basierend auf dem Picolinamid- und Benzamid-Grundgerüst dargestellt. Dabei wurden verschiedene substituierte Carbonsäuren mit diversen Aminen über eine Amidbindung verknüpft. Die Substanzbibliothek wurde mit genetischen, biochemischen und in silico Untersuchungen hinsichtlich ihrer Aktivität innerhalb eines Kooperationsprojektes überprüft. Dabei konnten potente Sec14p-Inhibitoren identifiziert werden. Es wurde eine Substanzbibliothek basierend auf dem Oxazolidinon-Grundgerüst aufgebaut. Es konnten N-acylierte Auxiliare, hydrierte alkylierte Oxazolidinone, Oxazolidinone ohne Stereozentrum in der Seitenkette und syn-Aldolprodukte dargestellt werden. Weiterhin wurden alkylierte Oxazolidinone über eine asymmetrische Alkylierung mit Natriumhexamethyldisilazid aufgebaut. Die Substanzbibliothek wurde mit genetischen und biochemischen Untersuchungen hinsichtlich ihrer Aktivität innerhalb eines Kooperationsprojektes überprüft. Dabei konnte ein schwacher Sec14p-Inhibitor festgestellt werden. Im Gegensatz zu intermolekularen 1,3-dipolaren Cycloadditionen sind intramolekulare enantioselektive 1,3-dipolare Cycloadditionen weitesgehend unerforscht. In dieser Arbeit wurde eine enantioselektive intramolekulare 1,3-dipolare Cycloaddition von Azomethinyliden zum Aufbau von Chinolin-Pyrrolidinyl-Spirooxindolen entwickelt. Zunächst wurden N-Aryl-Amide dargestellt. Nach Abspaltung der Schutzgruppe konnte die Schiff´sche Base in situ gebildet werden, welche nachfolgend in der Kupfer-(II)-katalysierten intramolekularen Cycloaddition Spiro-Verbindungen erzeugte. Mit einem Cell-painting Assay konnte eine neue Bioaktivität des Chemotyps festgestellt werden. 282 142 102 Quad module prototypes and design improvement studies of planar n+-in-n silicon pixel sensors for the ATLAS Inner Tracker upgrade In order to meet the requirements of the High Luminosity-LHC (HL-LHC), it will be necessary to replace the current tracker of the ATLAS experiment. Therefore, a new all-silicon tracking detector is being developed, the so-called Inner Tracker (ITk). The use of quad chip modules is intended in its pixel region. These quad modules consist of four read-out chips, bump-bonded to one large silicon pixel sensor. In this thesis, first prototypes of quad modules are investigated, which were assembled using a planar n+-in-n silicon pixel sensor and four FE-I4 read-out chips. The focus of the investigations is the measurement of charge collected in the laboratory and the tracking efficiency for particle passages at testbeams. In addition, the development of new pixel designs is presented. Um die Anforderungen des High Luminosity-LHC (HL-LHC) zu erfüllen, wird es notwendig sein, den aktuellen Tracking-Detektor des ATLAS-Experiments zu ersetzen. Deshalb wird ein neuer Silizium-Tracking-Detektor entwickelt, der sogenannte Inner Tracker (ITk). In dessen Pixelbereich ist der Einsatz von Quad-Chip-Modulen vorgesehen. Diese Quad-Module bestehen aus vier Auslese-Chips, die über Bump Bonds mit einem großen Silizium-Pixelsensor verbunden sind. In dieser Arbeit werden erste Prototypen solcher Quad-Module untersucht, die unter Verwendung eines planaren n+-in-n-Silizium-Pixelsensors und vier FE-I4-Auslesechips gefertigt wurden. Der Fokus der Untersuchungen liegt auf Messung der Ladungssammlung im Labor und der Nachweiseffizienz von Teilchendurchgängen im Testbeam. Darüber hinaus wird die Entwicklung neuer Pixel-Designs vorgestellt. 283 163 162 Konzeption, Simulation und technische Umsetzung neuartiger, mikrostrukturierter LED-Flächenstrahler auf der Basis von Lichtleitern Room illumination is an important topic in architecture and energy politics, regarding mainly concepts that introduce new possibilities in design and improvement in energy consumption of a building. Microstructured transparent large area surface emitters open up new potentials in this field. In this work the development and manufacturing of such a luminaire based on the concept of light guiding plates are presented. For this purpose, a development scheme is formulated and feasible manufacturing methods are identified and adapted. The industrially manufactured samples are successfully integrated in a façade to light up the room’s ceiling and thereby realize an indirect room illumination. The out-coupling and subjective perception of the manufactured microstructured surface emitters are characterized by simulations and novel measurement setups developed for this purpose and further to show potential for optimization. Based on findings by this characterization, optimized surface emitters with undercut microstructures and feasible manufacturing methods are invented. A socio-ecological classification gives an outlook on the sustainability of the novel lighting solution. Die Beleuchtung von Räumen ist in der Architektur und der Energiepolitik ein wichtiges Thema. Dies betrifft vor allem Konzepte, die neues Potential in der architektonischen Gestaltung eröffnen und den Energiebedarf von Gebäuden verbessern. Der Einsatz von mikrostrukturierten, durchsichtigen Flächenstrahlern zur Raumbeleuchtung eröffnet hier neue Möglichkeiten. In dieser Arbeit wird eine solche Leuchte basierend auf dem Konzept lichtleitender Platten entwickelt und hergestellt. Hierzu wird ein Entwicklungsschema entworfen, zu dem Herstellungsverfahren identifiziert und angepasst werden. Die industriell gefertigten Muster werden erfolgreich in eine Fassade integriert, um einen Raum von dort aus indirekt über die Decke zu beleuchten. Für die Charakterisierung des Abstrahlverhaltens und der subjektiven Wahrnehmung der hergestellten mikrostrukturierten Flächenstrahler werden neue Simulations- und Messverfahren entwickelt, die das Optimierungspotential der entwickelten Systeme identifizierbar machen. Darauf aufbauend werden optimierte Flächenstrahler mit hinterschnittenen Mikrostrukturen entworfen und neue Verfahren zu deren Herstellung entwickelt. Eine sozioökologische Einordnung bringt Aufschluss über die Nachhaltigkeit der neuartigen Beleuchtung. 284 253 258 Poly(pyrazolyl)methanliganden in der Koordinationschemie der späten 3d-Metalle und in der bioanorganischen Chemie und Katalyse In this thesis a general one-pot synthesis of new substituted heteroscorpionates is presented. Twelve different bis(pyrazolyl)methanes and one tris(pyrazolyl)methane were prepared and characterised for the first time. By using the bis(pyrazolyl)methane ligands, a comprehensive coordination chemistry study on the metals cobalt, iron, copper and zinc was performed. With regard to the synthesised complexes, their coordinative properties have been thoroughly evaluated. Twelve bisfacial coordinated and 17 monofacial coordinated complexes were structurally characterised. Special attention was given to the competition of the donor functions with the bis(pyrazolyl)methanes which was studied in a comparative analysis and by density functional theory. The most promising ligands were tested on their ability as catalysts in the atom transfer radical polymerisation (ATRP) of styrene mediated by copper-, iron- or cobalt-complexes. The copper-complexes show minor activity, whereas the iron-complexes show a promising activity and higher molecular masses in styrene polymerisation. The cobalt-mediated ATRP exhibits a good control of polymerisation, serving as starting point for further studies. The application of the bis(pyrazolyl)methanes in the bioinorganic chemistry of oxygen activation with copper complexes as tyrosinase models has been tested as well. The ligand HC(3-tBupz)2(py) shows an extraordinary activity by stabilising a room temperature stable μ- η2:η2-peroxo-dicopper(II)-species [(HC(3-tBupz)2(py))2Cu2O2][SbF6]2. The formation of this species was monitored by UV/Vis spectroscopy and additionally studied with detailed density functional theory analysis. It appears that this complex shows oxidation- and oxygenationability in spite of its stability. The complex [(HC(3-tBupz)2(py))2Cu2O2][SbF6]2 transfers selectively an oxygen atom to the substrate 2,4-di-tert-butyl-phenolate in dichloromethane. This result demonstrates an excellent biomimetic oxygen transfer activity. Im Rahmen dieser Arbeit wurde ein verfeinertes Syntheseprotokoll für substituierte trisfunktionelle Bis(pyrazolyl)methane entwickelt. So wurden elf neue Bis(pyrazolyl)methane und ein neues Tris(pyrazolyl)methan synthetisiert und charakterisiert. Mit den Bis(pyrazolyl)methanliganden wurde mit den Metallen Kobalt, Eisen, Kupfer und Zink eine umfassende koordinationschemische Studie erstellt. Anhand der synthetisierten Übergangsmetallkomplexe wurde das koordinationschemische Potential dieser Liganden grundlegend ausgelotet. Es konnten insgesamt zwölf Komplexe mit bisfacialer und 17 Komplexe mit monofacialer Koordination strukturell charakterisiert werden. Dabei wurde besonders die Konkurrenz der N-Donoren innerhalb der Liganden auch theoretisch studiert und in einer vergleichenden Analyse betrachtet. Parallel dazu wurden auch Kobalt- Tris(pyrazolyl)methan-Komplexe mit interessanten Strukturmotiven synthetisiert und charakterisiert. Die aussichtsreichsten Liganden wurden in der Atomtransfer-Radikalpolymerisation (ATRP) von Styrol und Methylmethacrylat getestet, die durch Kupfer-, Eisen- oder Kobalt-Komplexe vermittelt werden kann. Die Kupfer-Komplexe zeigen nur wenig Aktivität, während die Eisen-Komplexe vielversprechende Aktivität und höhere Molmassen bei Polystyrol zeigten. In der Kobalt-vermittelten ATRP wurde eine gute Polymerisationskontrolle erreicht, was als Ausgangspunkt für daran anschließende Studien dienen wird. In der Anwendung in der Bioanorganischen Chemie wurden ebenfalls einige Bis(pyrazolyl)methane in der Sauerstoffaktivierung mit Kupfer-Komplexen für die Entwicklung von Tyrosinase-Modellkomplexen getestet. Der Ligand HC(3-tBupz)2(py) zeigte eine außergewöhnliche Aktivität, indem er die raumtemperaturstabile μ-η2:η2-Peroxodikupfer( II)-Spezies [(HC(3-tBupz)2(py))2Cu2O2][SbF6]2 stabilisiert. Diese Spezies konnte UV/Vis-spektroskopisch beobachtet und mittels einer eingehenden dichtefunktionaltheoretischen Studie analysiert werden. Es zeigte sich, dass dieser Komplex trotz seiner Stabilität eine Oxidations- und Oxygenierungsfähigkeit aufweist. Der Komplex [(HC(3- tBupz)2(py))2Cu2O2][SbF6]2 überträgt in Dichlormethan ein Sauerstoffatom selektiv auf das Substrat 2,4-Di-tert-butyl-Phenolat. Dieses Ergebnis zeugt von einer hervorragenden biomimetischen Sauerstoffübertragungsaktivität. 285 151 111 Low pay employment in East and West Germany Niedriglohnbeschäftigung in Ost- und Westdeutschland A low pay sector is not to be created it already exists in Germany. Under the assumption of a separate minimum wage for the western (8.49 EUR) and the eastern (6.30 EUR) part of Germany, about 13% of the employees would have a legal entitlement to higher wages. A detailed analysis of the low pay sector shows that both personal and structural characteristics have an influence on low pay employment. Besides this, the declining rate of unionisation as well as the decreasing bindingness of collective wage agreements may be other possible reasons for the emergence or rather the broadening of the low pay sector. Furthermore the available legal regulations to firm up the system of collective bargaining do not longer countervail against low pay employment. In this respect a statutory minimum wage could be a necessarily option to regulate low wages in Germany. In der Bundesrepublik Deutschland muss ein Niedriglohnsektor nicht erst noch geschaffen werden er existiert bereits. Unterstellt man einen nach West- (8,49 EUR) und Ostdeutschland (6,30 EUR) differenzierten gesetzlichen Mindestlohn, so hätten etwa 13% der abhängig Erwerbstätigen einen Anspruch darauf. Eine detaillierte Analyse des Niedriglohnsektors zeigt deutlich, dass sowohl persönliche als auch strukturelle Merkmale den Niedriglohnbezug beeinflussen. Neben der individuellen Merkmalsstruktur der Niedriglohnempfänger sind die rückläufige Tarifbindung sowie die abnehmende Tarifverbindlichkeit mögliche Gründe für die Entstehung bzw. Ausweitung des Niedriglohnsektors. Da auch die vorhandenen rechtlichen Instrumente zur Flankierung des Tarifsystems Niedriglöhne nur unzureichend regulieren können, stellt ein gesetzlicher Mindestlohn eine durchaus realistische Option für die BRD dar. 286 196 182 Optisch detektierte paramagnetische Resonanz-Spektroskopie am Rubin The optically detected paramagnetic resonance has been proven to be a valuable method for the investigation of the electronic structure of transition metal in metallo-proteins. Up to now a model has been used for the interpretation of the experimental spectra which described this experiment on the basis of circular magnetic dichroism, which is induced by a rotating transverse magnetization. This model of magnetic circular dichroism induced by a rotating magnetization is just applicable to special kinds of transition metal systems and a special optical configuration of this experiment.In this thesis it will be shown, that a theory, based on the model of coherent Raman-scattering, provides a much more general description of this experiment. This will be demonstrated on the experimental spectra at the R-lines of the ruby cristal. These spectra can not be interpreted by the model of transverse MCD and show a very complex structure. The optical and magnetic properties of the chromium ions in ruby have been investigated in the last century extensively. Thus ruby is an ideal testing system, to proof the advantages of the model of coherent Raman scattering and to obtain a deeper insight into the nature of this spectroscopic method. Die optisch detektierte paramagnetische Resonanz hat sich als eine wertvolle Methode zur Untersuchung der elektronischen Struktur von Übergangsmnetallen in Metallo-Proteinen bewährt. Zur Interpretation der experimentellen Spektren wurde dazu bisher ein Modell benutzt, welches das Experiment auf der Basis eines magnetischen zirkularen Dichroismus beschreibt, der durch eine rotierende transversale Magnetisierung induziert wird.Dieses Modell des magnetischen zirkularen Dichroismus an einer rotierenden Magnetisierung ist nur auf bestimmte Arten von Übergangsmetall-Systemen und nur auf eine bestimmte optische Konfiguration des Eyperimentes anwendbar.In dieser Arbeit wird gezeigt, dass eine Theorie, basierend auf dem Modell der kohärenten Raman-Streuung, eine wesentlich allgemeinere Beschreibung dieses Experimentes zulässt. Dieses wird an experimentellen Spektren bei den R-Linien des Rubins demonstriert. Diese Spektren lassen sich grundsätzlich nicht mehr mit dem Modell der transversalen MCD beschreiben und zeigen eine sehr komplexe Struktur. Die optischen und magnetischen Eigenschaften der Chrom-Ionen im Rubin sind im letzten Jahrhundert ausgiebig erforscht worden. Aus diesen Gründen ist der Rubin ein ideales Test-System, um die Vorzüge des Modells der kohärenten Raman-Streuung zu belegen und einen tieferen Einblick in die Natur dieser spektroskopischen Methode zu gewähren. 287 174 156 Fourth generation neutrinos and neutrino induced hadron production in the resonance region We investigate two aspects in neutrino physics. First, we consider the extension of the standard model by a fourth fermion generation. Allowing finite mixing of the additional neutrino, which is kept most general with a Majorana mass term, constraints on the size of its Majorana mass are derived by its contribution in neutrinoless double beta decay. This determines the neutrino to be a pseudo-Dirac particle and implications for lepton number violating processes are discussed. After constraining the mixing matrix elements by radiative charged lepton decays we present an extradimensional model for softening the horizontal neutrino mass hierarchy. Then we study the consequences of the neutrino in baryogenesis, where a similar bound on the Majorana mass is obtained by estimating the washout effect on any baryon- or lepton-asymmetry. The second topic is the production of pions by neutrino-nucleon interactions via resonances. For this process various cross sections, including nuclear corrections and pion spectra, are calculated and possible applications to CP searches are proposed. Wir untersuchen zwei Aspekte der Neutrinophysik. Zunächst betrachten wir die Erweiterung des Standardmodells durch eine vierte Generation von Fermionen. Wir erlauben eine endliche Mischung des zusätzlichen Neutrinos, welches möglichst allgemein mit Majoranamasse gehalten wird, und leiten durch dessen Beitrag zum neutrinolosen Doppelbetazerfall Beschränkungen für die Größe der Majoranamasse her. Dies legt fest, dass das Neutrino ein pseudo-Dirac Teilchen sein muss. Die Auswirkungen auf die Leptonenzahl verletzende Prozesse werden diskutiert. Nach einer Beschränkung der Elemente der Mischungsmatrix durch radiative Zerfälle geladener Leptonen präsentieren wir ein Model mit Extradimensionen, welches die horizontale Hierarchie der Neutrinomassen abschwächt. Anschließend untersuchen wir die Konsequenzen des Neutrinos für die Baryogenese, wo eine ähnliche Grenze für dieMajoranamasse abgeleitet wird, indem der Auswascheffekt für Baryon- oder Leptonenasymmetrien abgeschätzt wird. Das zweite Thema ist die Produktion von Pionen durch Neutrino-Nukleon Wechselwirkungen durch die Erzeugung von Resonanzen. Für diesen Prozeß werden verschiedene Wirkungsquerschnitte, inklusive nuklearer Korrekturen und Pionenspektren, berechnet und eine Anwendung für CP Suchen vorgeschlagen. 288 315 330 Miniaturised nucleic acid analysis systems Das Design und die Implementierung miniaturisierter Systeme für die Analyse von Nukleinsäuren aus verschiedenen biologischen Proben haben eine beträchtliche Entwicklung erlebt. Fortschritte wurden insbesondere bei der Integration der Nukleinsäure-Vervielfältigung und -Detektion gemacht, wobei die Vervielfältigung meistens auf der Polymerase-Kettenreaktion (Polymerase Chain Reaction, PCR) beruht. Die Probenvorbereitung bleibt ein Haupthemmnis bei dem Versuch, eine quantitative Analyse mit vollständig miniaturisierten Systemen zu verwirklichen. Miniaturisierte Geräte für die Probenvorbereitung, Vervielfältigung und Detektion von Nukleinsäuren müssen weiter entwickelt werden, um ein vollständig integriertes System zu verwirklichen, das letztendlich in der Lage ist, die Genomanalyse einzelner Zellen mit "sample-in-answer-out"-Fähigkeit durchzuführen. In dieser Arbeit werden drei miniaturisierte Systeme präsentiert, die jeweils für die DNA-Aufreinigung und -Vorkonzentrierung, deren Vor-Vervielfältigung und Langzeit-Speicherung bzw. der Vervielfältigung mit Echtzeitdetektion von DNA verwendet werden können. Das erste miniaturisierte System nutzt die Isotachophorese zur Vorbehandlung der DNA, bei der die DNA-Probe in einem diskontinuierlichen Elektrolytsystem gereinigt und aufkonzentriert werden kann. Dabei können sowohl qualitative als auch quantitative Informationen simultan aufgenommen werden. Das zweite miniaturisierte System verwendet die simple Methode der isothermischen Multiplen Displacement Amplification (MDA) für die Vervielfältigung des gesamten Genoms (Whole Genome Amplification, WGA) der humanen, genomischen DNA. Der miniaturisierte WGA-Prozess zeigte eine hohe Effizienz von 95,8% und die Wiedergabetreue des vervielfachten Produkts ist extrem hoch, was durch die Ergebnisse einer Single Nucleotide Polymorphism (SNP) Analyse angedeutet wurde. Für des letzte System entwickelten wir ein kleines bidirektionales shunting-PCR-Instrument, in dem die injizierte DNA durch eine temperierte Zone mehrfach hin und her verschoben wird. Ausgestattet mit einem Fluoreszens Detektor, erreicht man eine höhere Flexibilität und schelle Temperaturzyklen, und kombiniert so die Vorteile der stationären PCR und der Durchfluss-PCR. Eine Echtzeitdetektion der RNase-P-PCR-Vervielfältigung von niedrig konzentrierter, humaner genomischer DNA mit einem Minimum von ~24 Kopien oder 12 Zellen wurde erreicht. Die drei in dieser Arbeit beschriebenen Systeme können direkt an aktuelle miniaturisierte Aufbauten angepasst werden. Ein solches vollständig integriertes, zur quantitativen Nukleinsäure-Analyse fähiges Gerät bleibt ein Mysterium, und zusammen mit weiteren Verbesserungen wäre es von großer Bedeutung für die Entwicklung von point-of-care Geräten. 289 152 130 Deregulation of shop opening hours and flexibilisation of employment in the retail trade Deregulierung der Öffnungszeiten und Flexibilisierung der Beschäftigung im Einzelhandel The key issue in the discussion about shop opening hours is, whether a legal regulation of the working hours within an industry can still be justified. As a contribution to balancing the debate the experiences with the new shop opening hours since 1996 are examined on the basis of representative surveys of businesses and employees in the retail trade. The effects on trade structure, employment and working (hours) conditions are described. It can be shown that the positive expectations of the deregulation of shop opening hours growing turnover, growing employment did not come up. Employment has been cut down, flexible working hours have increased. Against the background of the specific conditions in the retail sector expanded shop opening hours reinforce the previous paths of development with negative consequences for the trade structure, employment and quality of the retail business. Im Streit um die Ladenöffnungszeiten geht es um die Frage, ob eine gesetzliche Regulierung der Arbeits(zeit)bedingungen einer Branche noch zu rechtfertigen ist. Als Beitrag zur Versachlichung der Debatte werden die Erfahrungen mit der Erweiterung der Öffnungsmöglichkeiten seit 1996 auf der Grundlage repräsentativer Befragungen von Betrieben und Beschäftigten des Einzelhandels bilanziert. Untersucht werden die Effekte auf die Handelsstruktur, die Beschäftigung und die Arbeits(zeit) bedingungen. Es wird gezeigt, dass sich die an die Deregulierung des Ladenschlussgesetzes geknüpften positiven Erwartungen mehr Umsatz, mehr Beschäftigung - nicht erfüllt haben. Beschäftigung wurde abgebaut und dereguliert, flexible Arbeitszeitregelungen haben zugenommen. Vor dem Hintergrund der branchenspezifischen Bedingungen im Einzelhandel verstärken längere Öffnungszeiten die eingeschlagenen Entwicklungspfade mit negativen Folgen für die Handelsstruktur, die Beschäftigung und die Qualität des Handelsangebotes. 290 157 137 Synthese und biologische Evaluierung semi-synthetischer Rab7-Proteine In the present thesis lipidated fluorescently labelled peptides were synthesized. The peptides correspond to a great extend to the C-terminal area of the membrane bound rab7 protein which acts as a regulator in the intracellular vesicle transport. In addition to the partial sequence analogous to the fully modified i.e. in the C-terminal area posttranslationally doubly geranylgeranylated (C20-terpenoid) rab7 protein, the two partial sequences analogous to the potential singly geranylgeranylated rab7 intermediates of the posttranslational lipid transfer reaction were synthesized. In cooperation with the group of Prof. Dr. R. S. Goody of the Max-Planck-Institute in Dortmund conditions for the ligation of lipidated peptides with appropriately C-terminally truncated proteins by use of the expressed protein ligation (T.W. Muir 1998; M.Q. Xu 1998) were elaborated and the synthesized peptides were ligated to C-terminally truncated rab7 protein. The resulting semi-synthetic rab7 proteins were further evaluated and by the group of Prof. Dr. R. S. Goody employed in biochemical and biophysical experiments. In der vorliegenden Arbeit wurden lipidierte, fluoreszenzmarkierte Peptide synthetisiert. Die Peptide entsprechen weitgehend dem C-terminalen Bereich des im intrazellulären Vesikeltransport regulativ wirkenden membrangebundenen Rab7-Proteins. Neben der Teilsequenz, die dem vollständig modifizierten, d.h. im C-terminalen Bereich posttranslational doppelt geranylgeranylierten (C20-Terpenoid) Rab7-Protein analog ist, wurden zusätzlich die zwei potentiellen Teilsequenzen, die den einfach geranylgeranylierten Rab7-Intermediaten aus der posttranslationalen Lipidtransferreaktion analog sind, synthetisiert. In Zusammenarbeit mit der Arbeitsgruppe von Prof. Dr. R. S. Goody vom Max-Planck-Institut in Dortmund konnten Bedingungen zur Verknüpfung lipidierter Peptide mit entsprechend C-terminal verkürzten Proteinen über die Expressed Protein Ligation (T.W. Muir 1998; M.Q. Xu 1998) ausgearbeitet werden, unter denen die synthetisierten Peptide mit verkürztem Rab7-Protein verknüpft wurden. Die resultierenden semi-synthetischen Rab7-Proteine wurden evaluiert und von der Arbeitsgruppe von Prof. Dr. R. S. Goody in biochemischen und biophysikalischen Untersuchungen eingesetzt. 291 165 161 Darstellung von Sauerstoff-Heterocyclen durch rhodiumkatalysierte Tandem-Hydroformylierung von ungesättigten Alkoholen In this work the synthesis of oxygen heterocycles via a tandem hydroformylation reaction starting from unsaturated alcohols is described. A number of structural elements with various forms of linkage and ringsize of these oxygen heterocycles can be synthesised. Thus ring- and spiroanellated such as bridged bicyclic acetals are obtainable at aliphatic and aromatic systems. Furthermore the synthesis of linked tetrahydrofuran and tetrahydropyran units is possible. All of these structural elements are part of the framework of many natural products with biological and pharmacological activity. In the hydroformylation of olefins with two or more different or asymmetric substituted double bonds problems with the chemo- and regioselectivity can occur. Therefore this work is accompanied by investigations how to solve this problems by a) substrate-direction b) ligand-direction or c) intelligent choice of the reaction conditions. In the last part of this work the combination of ring closing metathesis and tandem hydroformylation in two steps for the synthesis of di- and tetrahydropyrans with spiroanellated fivemembered ring lactols is investigated. In der vorliegenden Arbeit wird die Synthese von Sauerstoff-Heterocyclen beschrieben, die ausgehend von ungesättigten Alkoholen durch eine Tandem-Hydroformylierungsreaktion dargestellt werden. Eine Reihe von Strukturelementen mit unterschiedlichen Verknüpfungsarten und Ringgrößen der Sauerstoff-Heterocyclen ist auf diese Weise zugänglich. So können ring- und spiroanellierte, ebenso wie überbrückte bicyclische Acetale an aliphatischen und aromatischen Systemen erhalten werden. Weiterhin ist der Aufbau von miteinander verknüpften Tetrahydrofuran- und Tetrahydropyraneinheiten möglich. Alle diese Strukturelemente sind Bestandteil des Gerüstes einer Vielzahl von Naturstoffen, die biologische und pharmakologische Akivität besitzen. Bei der Hydroformylierung von Olefinen mit mehreren unterschiedlichen oder mit asymmetrisch substituierten Doppelbindungen können Probleme bei der Chemo- und Regioselektivität der Reaktion auftreten. Die Arbeiten werden daher von Untersuchungen begleitet, wie diese Probleme a) subsratgesteuert b) ligandgesteuert oder c) durch geschickte Wahl der Reaktionsbedingungen gelöst werden können. Im letzten Teil der Arbeit wird die zweistufige Kombination von Ringschlussmetathese und Tandem-Hydroformylierung zum Aufbau von Di- und Tetrahydropyranen mit einem spiroanellierten Fünfringlactol untersucht. 292 139 121 Working Time Flexibilisation in small and mediumsized Companies of the Production Business Public, small and medium-seized enterprises (SMEs) are often thought to be much more flexible than large companies which often have the image of being 'sclerotic' or 'overbureaucratized'. This appraisal only partially corresponds with existing data on working time flexibility as several (quantitative) studies indicate only a relatively low level of flexibility of working time structures in SMEs. Nevertheless, because of the typically informal shop floor practices in SMEs, working hours probably are more flexible there than it is widely suggested in the literature. Despite this, SMEs still face specific problems concerning the introduction and implementation of innovative working time patterns: Unsufficient organizational structures, a considerable lack of knowledge, mental reservations on the side of the owners or managers, and a missing systematic personnel and working time management. Arbeitszeitflexibilisierung in Klein- und Mittelbetrieben des Produzierenden Gewerbes 293 187 164 By molecular dynamics simulation runs over 1000 ps the structure, dynamics and complexation behaviour of the host molecule p-Sulfonato-Calix[4]aren 5- with six different cationic guest molecules in water, are determined over a wide temperature range. The employed simulation program moscito, together with the SPC/E water modell, is able to reproduce experimental results as well as other simulation results. The translational self-diffusion coefficients of the host-guest complexes, determined by the mean square displacements of the center of mass of the molecule, are quite independent of the guest molecule. The reorientational times of the host-guest complexes, determined by reorientational correlation functions of molecular axis systems, are shorter than in the experiment. This is due to the lower viscosity of SPC/E water compared to real water and the higher concentration of the calixaren in the experiment. The hydration of the guests, the hosts and the host-guest complexes as well as the orientation of the guests in the host molecule are determined by pair distribution functions, angle distributions, dihedral angle distributions and scatter plots. The distribution of the partial charges on the calixaren has the strongest influence on the determined properties. Molekulardynamische Simulationen von Wirt-Gast-Komplexen 294 643 566 Zur dynamischen Entstehung psychischer Erschöpfung durch Selbstkontrolle bei der Arbeit The rapid shift from manufacturing-oriented work to a knowledge-based, service-oriented and technically challenging working environment causes an emergence of new work demands. Successful coping with these demands requires flexible control of behaviour and necessitates to a considerable extent the exertion of self-control. This takes its toll: Nowadays, demands on self-control are considered as a major source of stress at work and as a driver of exhaustion and impaired psychological well-being. In the wake of these developments, companies face a dilemma, because directly reducing these work demands is almost impossible without jeopardizing the own productivity and competitiveness. Therefore, identifying strategies, which might attenuate the adverse consequences of exerting self-control and gaining a deeper understanding how psychological exhaustion evolves over time constitute two important challenges for employers and employees alike. In light of the above, this doctoral thesis is devoted to a detailed evaluation of the questions (i) which (organisational and personal) boundary conditions influence the effect of self-control exertion on exhaustion, (ii) how chronic as well as short-term indicators of exhaustion evolve over time and interact with each other, and (iii) to what extent underlying theoretical models need to be updated in order to integrate and explain recent empirical findings. To address these questions, four empirical studies were conducted. The common theoretical foundation of these studies is the Strength Model of Self-Control. According to this model, every act of self-control draws on and depletes a common regulatory resource (willpower), thereby rendering this resource – at least temporarily – less available for subsequent self-control and giving rise to short-term indicators of exhaustion. In order to uncover how the exertion of self-control at work contributes to the development of short-term and long-term indicators of exhaustion, a methodological approach was chosen that combines three different methods of analysis. By means of this procedure, the development of exhaustion is examined as a dynamic process that unfolds over time. Study 1 (Chapter 2) is a longitudinal study that investigates the development of chronic emotional exhaustion over a 6-month time lag and sheds light on the role of job control as a moderator. The results of a cross-lagged panel analysis indicate that coping with emotional dissonance (defined as the discrepancy between one's truly felt emotions and those being expected by the work role) and simultaneously dealing with job control requires the exertion of self-control and therefore adversely affects the development of emotional exhaustion. Studies 2 and 3 (Chapter 3) are (two-level) diary studies that focus on predicting day-specific (short-term) indicators of exhaustion. Furthermore, implicit theories about willpower (the belief whether willpower relies on a limited or nonlimited resource) are examined as a moderator of the relation between day-specific self-control exertion and short-term indicators of exhaustion. The results support the assumption that believing in a nonlimited resource of willpower mitigates the consequences of self-control on (at least short-term) indicators of exhaustion. Moreover, it is examined how exhaustion in the afternoon persists over the course of a workday and causes feelings of exhaustion even after work. In study 4 (Chapter 4), a (three-level) diary study uncovers the dynamic interplay between chronic and day-specific indicators of exhaustion by modelling day-specific trajectories of ego-depletion and by testing how these trajectories are effected by self-control exertion and chronic emotional exhaustion. Multi-level latent growth modelling reveals that levels of ego-depletion increases linearly over the course of a workday and are adversely affected by emotional dissonance. Furthermore, the results suggest that emotional exhaustion can be considered as an indicator of a chronically reduced regulatory resource, thereby impeding day-specific self-control functioning at work. In summary, the empirical studies emphasize the straining effects of work-related self-control processes. By integrating different theoretical models, recent empirical findings, and different temporal perspectives, these studies extend our theoretical understanding of the dynamic development of exhaustion that is caused by work-related demands on self-control. Finally, several implications for the design of work are derived. Durch die rasante Verschiebung einer produktionsorientierten Industriegesellschaft zu einer wissensbasierten sowie dienstleistungs- und technologierorientierten Arbeitswelt ergeben sich neue Anforderungen für die Arbeitnehmer. Die erfolgreiche Bewältigung dieser Anforderungen erfordert die flexible Steuerung von Verhalten und setzt in einem beträchtlichen Ausmaß die Ausübung von Selbstkontrolle voraus. Doch dies fordert seinen Tribut: Anforderungen an Selbstkontrolle gelten als eine der bedeutendsten Arbeitsbelastungen der heutigen Zeit und werden in Verbindung gebracht mit einer Vielzahl an psychischen Erschöpfungssymptomen. Jedoch stehen Unternehmen vor einem Dilemma, denn eine direkte Reduktion dieser Arbeitsbelastung ist kaum möglich, ohne die eigene Wettbewerbsfähigkeit zu gefährden. Gefragt sind daher Maßnahmen, die die Folgen von Selbstkontrollausübung abschwächen können sowie ein tiefgehendes Verständnis darüber, wie Erschöpfung im Verlauf der Zeit entsteht. Vor diesem Hintergrund beschäftigt sich die vorliegende Dissertation mit den Fragen (i) welche (organisationalen sowie persönlichen) Rahmenbedingungen die Auswirkungen von Selbstkontrolle auf Erschöpfung beeinflussen, (ii) wie chronische sowie kurzfristige Erschöpfung im Verlauf der Zeit entstehen und sich wechselseitig beeinflussen und (iii) inwiefern zugrundliegende theoretische Modellvorstellungen erweitert werden müssen, um neue Erkenntnisse zu integrieren und zu erklären. Um diese Fragen zu adressieren, wurden vier empirische Studien durchgeführt. Die gemeinsame theoretische Grundlage dieser Studien stellt das Stärke-Modell der Selbstkontrolle dar. Demzufolge erschöpft die Ausübung von Selbstkontrolle eine begrenzte regulatorische Ressource (Willensstärke), wodurch nachfolgende Selbstkontrolle – zumindest vorübergehend – erschwert wird und kurzfristige Erschöpfungszustände entstehen. Um aufzudecken, wie die Ausübung von Selbstkontrolle am Arbeitsplatz zur Entstehung von sowohl kurzfristiger, als auch langfristiger Erschöpfung beiträgt, wurde in der Dissertation eine drei-schrittige methodische Herangehensweise gewählt. Durch die Kombination unterschiedlicher Analysemethoden und verschiedener zeitlicher Perspektiven wird Erschöpfung als ein dynamischer Prozess untersucht, der im Laufe der Zeit entsteht. Bei Studie 1 (Kapitel 2) handelt es sich um eine Längsschnittstudie, die die Entwicklung von chronischer Erschöpfung über einen 6-monatigen Zeitraum aufklärt und Handlungs- und Kontrollspielräume als Moderator untersucht. Die Ergebnisse einer Cross-Lagged Panel Analyse weisen darauf hin, dass sowohl der Umgang mit Emotionaler Dissonanz (definiert als Diskrepanz zwischen eigenen Emotionen und denen, die durch die Arbeitsrolle verlangt werden), als auch mit Handlungs- und Kontrollspielräumen die Ausübung von Selbstkontrolle erfordern und die Entstehung Emotionaler Erschöpfung beeinflussen. Studien 2 und 3 (Kapitel 3) sind (Zwei-Level) Tagebuchstudien, die tagesspezifische (kurzfristige) Erschöpfungszustände betrachten und aufklären, inwiefern die implizite Vorstellung über Willensstärke (ob Willensstärke auf einer begrenzten oder unbegrenzten Ressource basiert) die Zusammenhänge zwischen tagesspezifischer Selbstkontrollausübung und tagesspezifischer Erschöpfung moderiert. Die Ergebnisse unterstützen die Annahme, dass der Glaube an eine unbegrenzte Willensstärke die Konsequenzen von Selbstkontrolle auf (zumindest kurzfristige) Erschöpfungszustände abmildert. Darüber hinaus wird aufgedeckt, inwiefern Erschöpfung zur Mittagszeit über den Arbeitstag und sogar bis nach Feierabend andauert. In Studie 4 (Kapitel 4) werden schließlich dynamische Wechselwirkungen zwischen chronischer und tagesspezifischer Erschöpfung im Rahmen einer (Drei-Level) Tagebuchstudie untersucht, in der tagesspezifische Verlaufskurven von Ich-Erschöpfung modelliert und durch tagesspezifische Selbstkontrollausübung vorhergesagt werden. Multi-level latente Wachstumsmodelle decken auf, dass das Ausmaß an Ich-Erschöpfung im Verlauf eines Arbeitstages linear zunimmt und durch Emotionale Dissonanz beeinflusst wird. Darüber hinaus weisen die Ergebnisse darauf hin, dass Emotionale Erschöpfung als Indikator einer chronisch reduzierten regulatorischen Ressource fungiert und somit tagesspezifische Selbstkontrollprozesse bei der Arbeit erschweren kann. Zusammenfassend betonen die empirischen Studien die beanspruchungswirksamen Konsequenzen von berufsbezogener Selbstkontrollausübung. Durch die Integration unterschiedlicher arbeitspsychologischer Modelle, empirischer Befunde und unterschiedlicher zeitlicher Perspektiven erweitern die Studien unser theoretisches Verständnis zur dynamischen Entstehung von Erschöpfung durch arbeitsbezogene Anforderungen an Selbstkontrolle. Darüber hinaus lassen sich einige relevante Implikationen für die Gestaltung der Arbeit ableiten. 295 248 210 During the search for bioactive natural products of marine origin, KOBAYASHI et al. isolated in 1997 the novel hexacyclic alkaloid nakadomarin A from the sponge Amphimedon sp. (SS-264) collected off the coast of Okinawa. Although this compound is biosynthetically related to the manzamine alkaloids, the impressively complex array of carbo- and heterocyclic rings of its backbone has no precedent in the literature. Its promising and diverse physiological activities including cytotoxicity against L 1210 murine lymphoma cells and inhibitory activity against cyclin dependent kinase 4 as well as its poor accessibility from the natural source render nakadomarin a challenging target for a total synthesis. In the following work first synthetic entries to important fragments of this biologically and structurally interesting molecule are described. For the synthesis of the strained hexahydroazocin unit a short and efficient route basing on a ring closing olefin metathesis has been developed. It has been demonstrated that ring closing alkyne metathesis followed by Lindlar reduction of the resulting cycloalkyne is a well suited method for the stereoselective formation of the macrocyclic 15-membered ring with (Z)-configurated double bond. For the synthesis of the potentially labile substituted furane two elegant strategies have been developed, one of them basing on a highly selective palladium-catalyzed key step. Studies towards an enantioselective total synthesis of nakadomarin A using an intramolecular Michael addition developed by BRANDS to set the quarternary center of the molecule lead to the formation of an advanced tetracyclic intermediate on the way to the desired natural product. Ringschlußmetathesereaktionen in der Naturstoffsynthese 296 172 141 Measurement of the QED Compton scattering cross section with the H1 detector at HERA The double differential cross section of QED Compton scattering at HERA is measured using data collected in 1997 by the H1 experiment. The measurement iscarried out in bins of the kinematic variables xl and Q2l in the range 1.8 10-5 < xl < 1.8 10-3 and 2 GeV2 < Q2l < 86 GeV2. The results are used to gaininformation on the proton structure function F2 in the kinematic region of small virtualities of the exchanged photon Q2h down to 0.05 GeV2 and in a wide range ofthe Bjorken variable xh between approximately 10-4 and 0.5, a region which is not accessible in inclusive ep scattering at HERA. The measurement is alsoconfronted to theoretical calculations performed in the collinear approximation, in which the exchanged photon is treated as a parton of the proton. It is found thatthis approach leads to significant discrepancies between the predicted and the measured cross section values in the domain of inelastic QED Compton scattering. Mit Hilfe von im Jahre 1997 aufgezeichneten Daten des H1-Experiments wurde der doppelt differentielle Wirkungsquerschnitt von QED-Compton-Streuung beiHERA gemessen. Die Messung wurde in Intervallen der kinematischen Variablen xl und Q2l im Bereich 1.8 10-5 < xl < 1.8 10-3 und 2 GeV2 < Q2l < 86 GeV2durchgeführt. Die Ergebnisse werden benutzt, um Informationen über die Protonstrukturfunktion F2 im kinematischen Bereich von kleinen Virtualitäten desausgetauschten Photons Q2h bis zu 0.05 GeV2 und in einem breiten Bereich der Bjorkenschen Variablen xh zwischen ca. 10-4 und 0.5 zu gewinnen, also in einemnicht in inklusiver ep-Streuung bei HERA zugänglichen kinematischen Bereich. Außerdem wurde die Messung mit theoretischen Berechnungen in der kollinearenApproximation verglichen, in der das ausgetauschte Photon als Parton im Proton betrachtet wird. Es wurde gefunden, dass dieser Ansatz im Bereich inelastischerQED-Compton-Streuung zu signifikanten Diskrepanzen zwischen den vorhergesagten und den gemessenen Werten des Wirkungsquerschnittes führt. 297 169 136 Asymmetrical Evolution Strategies Asymmetrische Evolutionsstrategien Topic of this work is the development of a new evolution strategy. In contrast to all other evolution strategies the asymmetrical one uses a directed mutation operator. The directed mutation is based on an asymmetrical distribution function. A asymmetrical distribution function which fulfils all ancillary conditions of the evolution strategies did not exist and was developed in this work. Besides the development of the cumulative distribution function all interesting properties have been deduced. These properties are the moments, cumulative and probability distribution function and the associated inverse functions. The developed distribution function, developed in this work, is on a general level, that allows the modelling of symmetrical distributions and in particular the modeeling of the normal distribution. Based on the asymmetrical distribution function and its random number generator, the asymmetrical evolution strategy is developed. The performance is demonstrated with the use of benchmark-test and real-world problems. All test were carried out with other variants of the evolution strategies to give a comparable grading of the performance. In dieser Arbeit wird eine neue Evolutionsstrategie entwickelt, die im Gegensatz zu allen bekannten Evolutionsstrategien einen gerichteten Mutationsoperator einsetzt. Die gerichtete Mutation wird durch Verwendung einer asymmetrischen Verteilungsfunktion realisiert. Eine asymmetrische Verteilungsfunktion, die die Randbedingungen der Evolutionsstrategien erfüllt existierte nicht und wird in dieser Arbeit hergeleitet. Neben der Herleitung der Verteilungsfunktion werden alle stochastisch interessanten Eigenschaften dieser Verteilungsfunktion hergeleitet. Dazu zählen Momente, Verteilungs- und Dichtefunktion und die zugehörigen inversen Funktionen. Die hier entwickelte asymmetrische Verteilungsfunktion ist dabei so allgemein gehalten, dass sie, für spezielle Belegungen der Parameter, auch symmetrische Verteilungen und insbesondere auch die Normalverteilung realisieren kann. Aufbauend auf diese Verteilungsfunktion und den zugehörigen Zufallszahlengenerator wird die asymmetrische Evolutionsstrategie entwickelt. Die Leistungsfähigkeit der die asymmetrische Evolutionsstrategie wird durch Benchmark-Test und reale Anwendungen gezeigt. Zum Vergleich werden alle Test mit anderen Varianten der Evolutionsstrategien verglichen. 298 138 155 This article is a review of the international (mainly psychological) research of the individual and social effects of organisational staff reduction (Downsizing) on the remaining employees (Survivors). The conclusion of the mostly English speaking countries is that the financial and organisational objectives (e.g. lowering costs and rising productivity) that firms expect from Downsizing are often not achieved. An explanation for this result is that Downsizing evokes negative emotional, cognitive or behavioural responses among Survivors. The change of the implicit psychological contract between employers and employees is regarded central for these negative responses. Further workplace insecurity, motivational losses regarding commitment and engagement, changes in health status as well as changes in position and career paths of middle management have to be considered. These findings suggest that more theoretical and empirical research is necessary - especially in German speaking countries. Downsizing und Survivors 299 221 196 Fourth-order spin correlation in doped semi-conductor quantum dots This thesis focuses on fourth-order spin correlation functions in semi-conductor quantum dots. Widely studied are the second order spin noise power spectrum and its counterpart in the time domain. However, the information extracted from the second order correlation function is limited, and it stands to reason that higher order correlators carry additional physics. The best and most accessible option to study higher order statistics are fourth order correlators. These can be observed in experiment, for example by measurements of polarisation at consecutive times as well as through spin echo measurements, as is detailed using quantum measurement theory in this thesis. The system studied is the spin of a single electron in a semi-conductor quantum dot, which is a promising candidate for a quantum bit, and can be described using the central spin model. The influence of several important interactions within this model on the long time behaviour of several fourth order correlation functions was investigated. We were able to show that fourth-order spin correlation in quantum dot systems is well described by an enhanced central spin model including quadrupolar couplings and nuclear Zeeman splitting. It was proven in this thesis that fourth-order correlation yields information about the system beyond the well known second-order correlation function, and is, therefore, highly interesting for future studies. Das Thema der vorliegenden Arbeit sind Spinkorrelationsfunktionen vierter Ordnung in Halbleiter Quantenpunkten. Ein in einem Quantenpunkt gefangener Elektronenspin ist ein vielversprechender Kandidat für ein Quantenbit. Spinrauschen und Spinkorrelation zweiter Ordnung sind bereits ausführlich erforscht worden. Die Information über die Dynamik des Systems, die aus Korrelation zweiter Ordnung gewonnen werden kann, ist allerdings begrenzt. Bisher wurde vermutet, dass Korrelationen höherer Ordnung zusätzliche Physik beinhalten. Die von den Korrelationen höherer Ordnung am einfachsten experimentell zugänglichen Korrelationsfunktionen sind die vierter Ordnung. Diese können im Experiment, zum Beispiel durch Messung der Spinpolarisation zu mehreren aufeinanderfolgenden Zeiten oder über die Spin-Echo Methode, gemessen werden. Der Beweis dafür ist durch quantenmechanische Messtheorie in dieser Arbeit erbracht. Das hier untersuchte System ist ein einfach geladener Quantenpunkt, der über das sogenannte Zentralspinmodell beschrieben werden kann. Der Einfluss mehrerer wichtiger Wechselwirkungen innerhalb dieses Modells auf das Langzeitverhalten mehrerer Korrelationsfunktionen vierter Ordnung wurde untersucht. Es war möglich festzustellen, dass das erweiterte Zentralspinmodell mit quadrupolarer Wechselwirkung und nuklearer Zeeman-Energie die Eigenschaften von Korrelationsfunktionen vierter Ordnung gut beschreibt. Es ist in dieser Arbeit bewiesen worden, dass Korrelatoren vierter Ordnung Information liefern, die über die der zweiten Ordnung hinaus gehen. Daher sind Korrelationsfunktionen vierter Ordnung hochinteressant für zukünftige Forschung. 300 497 433 The ever-growing need for universally available computing and storage capacity is more and more satisfied by new architectures for networked interaction between users and providers of computing resources. Today, research and industry have realized an infrastructure for the coordinated use of globally distributed computing resources. The so-called grid computing infrastructure is assumed to be an integral part of the future global resource landscapes. In such an environment, submitted computing jobs are no longer bound locally, but can be flexibly migrated between different resource providers. In the context of community grids, different users are organized into virtual organizations, which typically share---in addition to a joint research---various computing resources. However, cooperation among different virtual organizations at the moment occurs only very rarely as---besides technical issues---this requires more advanced decentralized grid scheduling concepts. In order to fully utilize the capabilities of a federated grid, it is essential to promote a cross-community cooperation in the sense of a global grid infrastructure. At the same time, however, it is most important that the local autonomy is maintained, as no virtual organization would voluntarily cede the control of their local resources. Thus, the interaction among different communities in the grid brings both opportunities and challenges: The newly formed flexibility makes users even more demanding with respect to computing result delivery and wait times. The efficient operation of future computational grids highly depends on the development of viable architectures and strategies for scheduling, i.e. the allocation of jobs to resources and powerful methods for the negotiation of job migrations. In this work, we therefore develop distributed scheduling strategies for computational grids using various methods from computational intelligence. Different virtual organizations are seen as autonomous entities that decide on the acceptance or decline of jobs. Here, jobs can be offered by other schedulers or by the local user communities. The authority and security of virtual organizations will be maintained by following a restrictive information policy that strongly limits the exchange of system state information. The fully decentralized grid structure guarantees that the scheduling concepts are also applicable in large-scale environments. Initially, several decentralized strategies are developed and tested by extensive simulations with real-world workload traces. The results give first insights into the dynamics and characteristics of the assumed grid federations. Based on these findings, the mechanisms for decision-making is refined and implemented in a newly designed modular scheduling architecture. Using an evolutionary fuzzy system, the decision-making and interaction between virtual organizations is realized and further optimized. In a last step, also a coevolutionary algorithm is applied to improve the scheduling decisions. The evaluation based on real workload recordings reveals that it is possible to achieve significantly shorter response times for all respective user communities. At the same time, we demonstrate a strong robustness of the procedures, both to changing grid environments and changed user behavior. The results can be seen as a motivation for the increased cross-community cooperation in terms of a global computational grid, as this results in a win-win situation for all participants. Das ständig wachsende Bedürfnis nach universell verfügbarer Rechen- und Speicherkapazität wird durch die in den letzten Jahren vorangetriebene Entwicklung neuer Architekturen für die vernetzte Interaktion zwischen Nutzern und Anbietern von Rechenressourcen mehr und mehr erfüllt. Dabei ist die Umsetzung einer Infrastruktur zur koordinierten Nutzung global verteilter Rechenressourcen längst in Forschung und Wirtschaft realisiert worden. Diese als Grid-Computing bezeichnete Infrastruktur wird künftig integraler Bestandteil der globalen Ressourcenlandschaft sein, sodass die Ausführung von lokal eingereichten Berechnungsaufgaben nicht mehr ortsgebunden ist, sondern flexibel zwischen unterschiedlichen Ressourcenanbietern migriert werden kann. Bereits heute sind unterschiedliche Nutzergemeinschaften im Rahmen von Community-Grids in virtuellen Organisationen zusammengefasst, die neben einem gemeinsamen Forschungs- oder Anwendungsinteresse auch häufig eine Menge von IT-Ressourcen gemeinsam nutzen. Ziel ist es aber, auf lange Sicht eine Community-übergreifende Kooperation im Sinne einer globalen Grid-Infrastruktur unter Wahrung lokaler Autonomie weiter zu fördern. Dabei bringt die Interaktion mit anderen Communities im Grid sowohl Chancen als auch Herausforderungen mit sich, da durch die Nutzbarkeit global verteilter Ressourcen auch höhere Anforderungen in Bezug auf Berechnungsgeschwindigkeit und Wartezeiten von Seiten der Nutzer gestellt werden. Der Schlüssel für den effizienten Betrieb künftiger Computational Grids liegt daher in der Entwicklung tragfähiger Architekturen und Strategien für das Scheduling, also in der Zuteilung der Jobs zu den Ressourcen. Bisher sind die Methoden für die Verhandlung von Jobübernahmen zwischen Ressourcenanbietern jedoch nur sehr rudimentär entwickelt. In dieser Arbeit werden deshalb dezentrale Schedulingstrategien für Computational Grids entwickelt und unter Einsatz von Methoden der Computational Intelligence realisiert und optimiert. Dabei werden einzelne virtuelle Organisationen als autonome Einheiten betrachtet, die über eine Annahme oder Abgabe sowohl von eigenen als auch von extern eingereichten Jobs entscheiden. Durch die Beachtung einer restriktiven Informationspolitik werden die Autorität und Sicherheit virtueller Organisationen gewahrt und zugleich wird die Skalierbarkeit in größeren Umgebungen durch den dezentralen Aufbau sichergestellt. Zunächst werden verschiedene dezentrale Strategien entwickelt und simulatorisch untersucht. Die Ergebnisse geben dann Aufschlüsse über die Dynamik und Eigenschaften eines derartigen Verbunds. Auf Basis der so gewonnenen Erkenntnisse werden die Mechanismen zur Entscheidungsfindung verfeinert und in einer neu entworfenen modularen Schedulingarchitektur umgesetzt. Mittels evolutionär optimierter Fuzzy-Systeme wird anschließend die Entscheidungsfindung optimiert. Die Interaktion zwischen virtuellen Organisationen wird dann alternativ mittels co-evolutionärer Algorithmen angepasst. Die auf Basis realer Arbeitslastaufzeichnungen durchgeführten Evaluationen zeigen, dass die so erstellten Grid-Schedulingstrategien für alle am Grid teilnehmenden Communities deutlich verkürzte Antwortzeiten für die jeweiligen Nutzergemeinschaften erreichen. Gleichzeitig wird eine große Robustheit der Verfahren sowohl gegenüber veränderlichen Grid-Umgebungen als auch gegenüber verändertem Nutzerverhalten bewiesen. Die Ergebnisse sind als Motivation für die stärkere Community-übergreifende Kooperation im Sinne eines Computational Grid zu sehen, da dies bei Nutzung entsprechend optimierter Verfahren in einer Win-win Situation für alle Teilnehmer resultiert. 301 180 159 Workflow-gestützte Bereitstellung von Grid Middleware-Diensten Thanks to successful national and international initiatives Grid Computing begins to leave its shadowy existence. Years ago it started with users and developers mainly coming from the field of high energy and particle physics, and now also attracts increasing interest in other disciplines like climatology and biomedical research. Within the last five years with Cloud Computing another enabling technology emerged. This one utilizes resource and platform virtualization in its back-end and can be understood as complementary to Grid Computing. A possible and by European Grid initiatives pursued combination of both technologies is the on-demand operation of Grid middleware services in a Compute Cloud. For this purpose the middleware services and the underlying operating systems are encapsulated in virtual appliances. In this context, an important task is to establish comprehensible and replicable processes for the creation of these virtual appliances. This work evaluates the feasibility of workflows to describe these processes and shows workflows created for three different Grid middlewares. In the long run they allow a highly automated installation and configuration not only of Gridmiddleware services, but also supplemental services. Dank nationaler und internationaler Initiativen tritt das Grid Computing langsam aus seinem Schattendasein hervor. Ausgehend von den ursprünglichen Hauptanwendern und auch -entwicklern aus der Hochenergie- und Teilchenphysik, weitet sich die Anwendung dieser Technologie auf andere Disziplinen, wie etwa die Klimaforschung und die Bio-Medizin, aus. Als zum Grid Computing komplementäre Technologie etablierte sich in den letzten fünf Jahren das Cloud Computing, welches im Hintergrund oft auf die Virtualisierung von Ressourcen und Plattformen zurückgreift. Eine mögliche und von europäischen Grid-Initiativen forcierte Kombination beider Technologien liegt in dem bedarfsorientierten Betrieb von Grid Middleware-Diensten in einer Cloud. Dabei sind die Dienste mitsamt dem unterliegenden Betriebssystem in eine virtuelle Appliance zu kapseln. Bei der Nutzung solcher Appliances stellen Abläufe für die kontrollierte, nachvollziehbare und wiederholbare Erzeugung einen wichtigen Punkt dar. Mit der Beschreibung dieser Abläufe als Workflows ist in dieser Arbeit eine erfolgversprechende Möglichkeit untersucht, die langfristig eine hochgradig automatisierte Installation und Konfiguration nicht nur von Grid Middleware-Diensten erlaubt. 302 317 279 Search for astrophysical tau neutrinos using 7.5 years of IceCube data Astrophysical tau neutrinos are the last unidentified standard model messenger in astroparticle physics. Their identification can open new windows to neutrino physics, improve knowledge about cosmic neutrino sources and even test physics beyond the standard model. This work aims to constrain the tau neutrino component in the astrophysical neutrino flux observed by the IceCube Neutrino Observatory. Due to neutrino oscillations over cosmic baselines, a significant fraction of tau neutrinos is expected regardless of the exact neutrino production scenario at cosmic sources. The IceCube detector instruments a volume of 1 km3 to detect neutrinos interacting with the glacial ice at the South Pole at a depth between 1450 m and 2450 m. This is achieved by 5160 digital optical modules (DOMs), each equipped with a photomultiplier tube detecting Cherenkov light produced by secondary particles from neutrino interactions. In this dissertation, a new tau neutrino identification method is developed using state-of-the-art machine learning techniques to increase the expected tau neutrino event rate by a factor of 2.5 over previous work. Tau neutrinos are identified by the so-called double pulse signature, where two charge depositions can be observed in the waveform recorded in a single IceCube DOM: the first from the hadronic cascade induced by the neutrino interaction; the second one from a non-muonic decay of the produced tau lepton. This signature can be resolved by IceCube at energies above roughly 100 TeV. IceCube data recorded from 2011 to 2018 is analyzed and two tau neutrino candidates are observed. The astrophysical tau neutrino flux normalization is measured with a binned Poisson likelihood fit and the flux is observed to be 0.44+0.78 −0.31 10−18 GeV−1 cm−2 s−1 sr−1 at 100 TeV for an astrophysical spectral index of 𝛾 = 2.19. The observation is found to be incompatible with the non-observation of a tau neutrino flux at a significance of 1.9𝜎. Astrophysikalische Tau-Neutrinos sind das letzte nicht identifizierte Botenteilchen des Standardmodells in der Astroteilchenphysik. Ihre Identifikation kann neue Türen zur Neutrinophysik öffnen, das Wissen über kosmische Neutrinoquellen maßgeblich verbessern und sogar Physik jenseits des Standardmodells testen. Ziel dieser Arbeit ist die Untersuchung der Tau-Neutrino-Komponente des vom IceCube-Neutrino- Observatoriums nachgewiesenen astrophysikalischen Neutrinoflusses. Unabhängig von den genauen Prozessen der Neutrinoproduktion in kosmischen Quellen wird auf der Erde aufgrund von Neutrino-Oszillationen über kosmische Distanzen ein signifikanter Anteil an Tau-Neutrinos erwartet. Der IceCube-Detektor instrumentiert ein Volumen von 1 km3 um Neutrinos zu detektieren, die im Eis am Südpol in einer Tiefe von 1450 m bis 2450 m wechselwirken. Die 5160 digitalen optischen Module (DOMs) sind jeweils mit einem Photomultiplier ausgestattet, die Cherenkov-Strahlung, die durch Sekundärteilchen der Neutrinowechselwirkung enstehen, detektieren. In dieser Dissertation wurde eine neue Methode zur Identifizierung von Tau-Neutrino- Ereignissen entwickelt, die sich auf moderne Methoden des maschinellen Lernens stützt und die erwartete Tau-Neutrino-Ereignisrate im Vergleich zu vorherigen Arbeiten um einen Faktor 2.5 erhöht. Tau-Neutrinos werden über die sogenannte Doppel-Puls-Signatur identifiziert. Dabei werden zwei Ladungsdepositionen innerhalb eines IceCube-DOMs beobachtet: Die erste stammt von der hadronischen Kaskade der Neutrino-Wechselwirkung und die zweite wird durch den nichtmyonischen Zerfall des entstandenen Tau-Leptons erzeugt. Eine Signatur dieser Art kann von IceCube bei Energien oberhalb von 100 TeV aufgelöst werden. Die in dieser Arbeit analysierten Daten wurden zwischen 2011 und 2018 mit dem IceCube- Detektor aufgezeichnet und es wurden zwei Tau-Neutrino-Kandidaten gefunden. Die Normierung des astrophysikalischen Tau-Neutrino-Flusses wurde über einen gebinnten Poisson-Likelihood-Ansatz für einen spektralen Index von 𝛾 = 2.19 zu 0.44+0.78 −0.31 10−18 GeV−1 cm−2 s−1 sr−1 bei 100 TeV bestimmt. Diese Beobachtung ist mit einer Signifikanz von 1.9𝜎 inkompatibel mit einem nicht vorhandenen Fluss von Tau-Neutrinos. 303 119 103 Spritzbetonverstärkte Stahlbetonstützen The subsequent strengthening of R. C. columns and beams is of growing importance. Strengthening can become necessary when a change of usage is combined with increased live loads. Strengthening can also be required in seismic zones either as a prophylactic means or as a subsequent rehabilitation measure.In this paper the load carrying capacity of 10 R. C. columns with additional reinforcement and shotcrete layer is experimentally determined. An approach for a theoretical determination of the ultimate load according to a proposal of Schäfer is calibrated at experimental test results of the author himself an others. The investigations relate to R. C. columns with square and circular sections; an extension of the approach to columns with rectangular sections appears possible. Die nachträgliche Verstärkung von Stahlbetonbauteilen gewinnt weltweit zunehmend an Bedeutung. Verstärkungsmaßnahmen können erforderlich werden, wenn Umnutzungen mit vergrößerten Nutzlasten verbunden sind. Sie können aber auch, beispielsweise in erdbebengefährdeten Regionen, prophylaktisch bzw. nachträglich eingesetzt werden, wenn eine Vorschädigung durch Erdbeben stattgefunden hat.In der vorliegenden Arbeit wird die Traglast von 10 Stahlbetonstützen mit Zulagebewehrung und zeitlich versetzt aufgebrachter Spritzbetonschicht experimentell ermittelt. Ein Bemessungsansatz nach einer Idee von Schäfer wird in modifizierter Form an eigenen und in der Literatur beschriebenen, experimentellen Ergebnissen kalibriert. Der vorliegenden Arbeit liegen Stützen mit quadratischen und kreisrunden Stützenquerschnitten zugrunde; eine Erweiterung des Ansatzes auf Stützen mit Rechteckquerschnitten erscheint möglich. 304 59 58 Arithmetikunterricht modernisieren In primary schools today we still teach arithmetic almost like we did 30 years ago when there were no calculators. But paper & pencil skills are not used any longer in daily life. How to modernize our arithmetic teaching? We will discuss three aspects: We need more mental arithmetic, a better number sense and more independence from the calculator. Wir unterrichten in der Grundschule auch heute die vier Grundrechenarten praktisch wie vor 30 Jahren, als es noch keine Taschenrechner gab. Aber das Schriftliche Rechnen ist in Alltag und Beruf verschwunden. Wie sollte sich ein moderner Arithmetikunterricht dieser Situation anpassen? Wir diskutieren drei Schwerpunkte: Wir brauchen mehr Kopfrechnen, ein besseres Zahlgefühl und mehr Unabhängigkeit vom Taschenrechner. 305 269 273 This work describes different (chemo-)fermentative and (chemo-)enzymatic procedures to enhance the availability or to enable the derivatisation of terpenes or polyketides. To enhance the availability of the natural product family of the diterpene fusicoccanes, the heterologous fermentation of the biosynthetic intermediate fusicocca-2,10(14)-diene in a metabolic engineered baker’s yeast strain was established. Through systematic variation of the fermentation parameters the yield was increased from 6 mg/L to 30 mg/L. Besides the variation of fermentation parameters, it was also intended to enhance the yield by addressing inherent limitations. The individual expression of the two domains of the bifunctional key enzyme responsible for the biosynthesis of fusicocca-2,10(14)-diene, revealed low soluble expression of the N-terminal terpene cyclase domain. To increase folding stability of the whole enzyme or the terpene cyclase domain directed evolution was used. In a first generation already several hot spots for the production of variants with a higher solubility were identified. To mimic the phytotoxic or anticarcinogenic bioactivities of the diterpene fusicoccanes, enzymatic oxidation tools were applied to produce simple fusicoccane analogs starting from fusicocca-2,10(14)-diene. As an alternative to the use of whole cell biocatalysts for the production of complex terpenes, also a concept for the in vitro enzymatic total synthesis with thermostable enzymes was introduced. Furthermore this thesis deals with the substrate recognition in the polyketide biosynthesis. By targeted mutagenesis and feeding of unnatural substrates two new erythromycin derivatives where produced and the incorporation of artificial building blocks was enhanced. Alternatively, by exploiting the natural substrate tolerance of the polyketide synthase of the monensin biosynthesis and feeding of artificial substrates three new monensin derivatives were detected by mass spectrometry. Mikrobielle Biosynthese 306 386 363 Strukturelle Untersuchungen an 1,5-Anhydro-D-fructose-Reduktase aus Sinorhizobium morelense S-30.7.5. und SoxXA aus Paracoccus pantotrophus In this PhD thesis the 2.2 Å crystal structure of the enzyme 1,5-anhydro-D-fructose reductase (AFR) is reported, which reduces the carbohydrate derivative 1,5-anhydro-D-fructose (1,5-AF) yielding 1,5-anhydro-D-mannitol in a strictly NADPH-dependent manner. 1,5-AF was identified in various organisms. It is involved in the regulation of the glycogen metabolism in mammalians and was identified to be an intermediate in the production of antibiotics in fungi and red algae. AFR was crystallized in the presence of cofactor. The bound dinucleotide is NADP+ as was determined by fluorescence measurements of the intact crystal to NADP+. The crystal structure was solved with the SAD-method using Se-Met incorporation.AFR consists of two domains. The N-terminal domain shows a Rossmann fold and is responsible for the cofactor binding. Based on the structure, the cofactor specificity of AFR towards phosphorylated cofactor NADP(H) is discussed and possibilities for a conversion of this cofactor specificity to the NAD(H) are suggested. In the C-terminal domain several residues could be identified, which are involved in substrate binding and catalysis. A histidine residue in the active site is believed to act as a acid base catalyst by polarisation of the carbonyl function of the substrate to enable the transfer of the hydride ion from NADPH onto the substrate.A second part of this thesis is concerned with the crystal structure of SoxXA, an enzyme which is involved in sulfur oxidation in Paracoccus pantotrophus. The sulfur-oxidizing enzyme system of P. pantotrophus (SOX) is composed of several proteins, which oxidize hydrogen sulfide, sulfur, thiosulfate or sulfite and transfer the generated electrons to the respiratory chain. The heterodimeric cytochrome c complex SoxXA functions as heme enzyme covalently linking the sulfur substrate to the thiol of the Cys-138 residue of the SoxY protein of the SoxYZ complex. The crystal structure of the cytochrome complex SoxXA was solved to a resolution of 1.9 Å. The axial heme-iron coordination involves an unusual Cys-251 thiolate at heme-2. The space in the active site pocket around heme-2 was sufficient for a (GGCGG)2 dimer covalently linked via a disulfide bridge, which is an analogue for the C-terminus of a SoxY2 dimer. On the basis of the crystal structure and biochemical data, a mechanism for the covalent linkage of the sulfur substrate to the sulphhydryl of Cys-138 of SoxY via a covalent intermediate at Cys251 of SoxA is proposed and discussed. In dieser Dissertation wird über die Kristallstruktur des Enzyms 1,5-Anhydro-D-fruktose-Reduktase (AFR) berichtet, das in der Lage ist 1,5-Anhydro-D-fruktose (1,5-AF) streng NADPH-abhängig zu 1,5-Anhydro-D-mannitol zu reduzieren. 1,5-AF konnte in unterschiedlichen Organismen nachgewiesen werden. Es ist unter anderem in der Regulation des Glycogenhaushalts in Säugern beteiligt und konnte als Zwischenprodukt bei der Antibiotikaproduktion in Pilzen und Rotalgen nachgewiesen werden. AFR wurde in Gegenwart von Cofaktor kristallisiert. Der Oxidationszustand des Cofaktors konnte über Fluoreszenzmessungen an intakten Kristallen zu NADP+ bestimmt werden. Die Struktur konnte über SAD an Se-Met bis zu einer Auflösung von 2.2 Å bestimmt werden.AFR besteht aus zwei Domänen. Die N-terminale Domäne zeigt eine typische Rossmann Faltung und ist verantwortlich für die Cofaktor Bindung. Aufgrund der Struktur wurde die Spezifität von AFR gegenüber phosphoryliertem Cofaktor NADP(H) diskutiert und Möglichkeiten aufgezeigt, diese Cofaktorpräferenz zugunsten NAD(H) zu verschieben. In der C-terminalen Domäne konnten verschiedene Reste identifiziert werden, die wahrscheinlich in die Substratbindung und Katalyse involviert sind. Ein Histidinrest im aktiven Zentrum agiert wahrscheinlich als Säure-Basen-Katalysator indem er die Carbonylgruppe des Substrats polarisiert und so den Transfer des Hydridions von NADPH zum Substrat ermöglicht.Der zweite Teil der Dissertation beschäftigt sich mit der Kristallstruktur von SoxXA, einem Enzym, das in die Schwefeloxidation von Paracoccus pantotrophus involviert ist. Das Schwefeloxidations-System von P. pantotrophus (SOX) besteht aus mehreren Enzymen, die in der Lage sind Sulfid, molekularen Schwefel, Thiosulfat und Sulfit zu oxidieren und die gewonnenen Elektronen der Atmungskette zu Verfügung zu stellen. Der heterodimere Cytochrom c Komplex SoxXA agiert dabei als Häm-Enzym und verknüpft kovalent das Schwefel Substrat mit der Thiol-Gruppe von Cyst-138 des SoxYZ Komplexes. Die Kristallstruktur des Cytochrom c Komplexes SoxXA konnte bis zu einer Auflösung von 1.9 Å gelöst werden und zeigte eine ungewöhnliche Koordination in Form eines Cysteinthiolat an Häm2. Die Bindungstasche um das aktive Zentrum bei Häm2 bietet ausreichend Platz für ein (GGCGG)2 Dimer, das über die Cysteine kovalent verknüpft ist, und ein Analogon für den dimeren C-Terminus von SoxY2 darstellt. Anhand der Kristallstruktur und biochemischen Daten wurde ein Mechanismus für die kovalente Verknüpfung des Schwefelsubstrats mit der Sulphhydrylgruppe von Cys-138 von SoxY über eine kovalente Zwischenstufe an Cys251 von SoxA vorgeschlagen. 307 432 395 Single-trap phenomena in nanowire biosensors Single-trap phenomena (STP) in nanoscale transistor devices possess outstanding properties that are promising for many useful and important applications including information technologies and biosensing. In this thesis, a novel biosensing approach based on monitoring of STP parameters as a function of target biomolecules on the surface of liquid-gated (LG) silicon (Si) nanowire (NW) field-effect transistor (FET) biosensors was proposed and demonstrated. To enhance STP dynamics and improve the efficiency of the approach, unique two-layer (TL) NW FETs with NW channels consisting of two Si layers with different concentrations of dopants were designed and fabricated. A stable and leakage-free operation in liquid confirms the high quality of TL NW devices. At the same time, fabricated TL nanostructures are conceptually different from the conventional uniformly doped Si NWs and demonstrate more statistically pronounced STP with considerably stronger capture time dependencies on drain current compared to that predicted by classical Shockley-Read-Hall theory. A comprehensive analysis of the experimental data measured at low temperatures allowed the identification of the origin of single traps in TL NWs as a vacancy-boron complex. Several important effects enabling the advancement of sensing capabilities of STP-based devices were revealed using fabricated TL NW FET biosensors. First, a significant effect of channel doping on the quantum tunneling dynamics of charge carriers to/from a single trap was registered in TL nanostructures, analyzed, and explained within the framework of the proposed analytical model. Second, a distinct fine-tuning effect of STP parameters by applying a back-gate potential to LG TL NW FETs was experimentally revealed and supported by numerical simulations. Such a unique feature of STP in TL NWs allows the sensitivity of STP-based biosensors to be enhanced in a well-controllable way. Furthermore, STP in NW FETs offer a great opportunity for the suppression of low-frequency noise. Considering a trap occupancy probability (g-factor) as a signal, a new method for the estimation of g-factor noise was proposed and utilized. As a result, the effective suppression of the low-frequency noise even beyond the thermal noise limit was experimentally and numerically demonstrated. The derived analytical model showed an excellent agreement with the obtained results underlining the importance of STP for biosensing applications. Utilizing the unique advantages of STP in fabricated TL NW FET biosensors, several proof-of-concept applications including high-sensitive detection of target chemical and biological analytes: mono- and divalent ions, ascorbate molecules, and amyloid-beta peptides were demonstrated. Thus, the performed experiments together with the developed analytical models represent a major advance in the field of biosensors and pave the way for the next generation of novel ultrasensitive bioelectronic sensors exploiting single-trap phenomena. Ein-Fallen-Phänomene (STP) in nanoskaligen Transistor-Bauelementen besitzen herausragende Eigenschaften, die für viele nützliche und wichtige Anwendungen, einschließlich der Informationstechnologien und Biosensorik, vielversprechend sind. In dieser Doktorarbeit wurde ein neuartiger Biosensor-Ansatz vorgeschlagen und demonstriert, der auf der Überwachung von STP-Parametern als Funktion von Ziel Biomolekülen auf der Oberfläche von flüssigkeitsgesteuerten (LG) Silizium (Si) Nanodraht (NW) Feldeffekttransistor (FET) Biosensoren basiert. Um die STP-Dynamik zu erhöhen und die Effizienz des vorgeschlagenen Ansatzes zu verbessern, wurden einzigartige zweischichtige (TL) NW FETs mit NW-Kanälen, die aus zwei Siliziumschichten mit unterschiedlichen Konzentrationen von Dotierstoffen bestehen, entworfen und hergestellt. Ein stabiler und leckfreier Betrieb in einer Flüssigkeit bestätigt die hohe Qualität der TL-NW-Bauelemente. Gleichzeitig unterscheiden sich die hergestellten TL Nanostrukturen konzeptionell von den konventionellen, gleichmäßig dotierten Si-NWs und zeigen, im Vergleich zur Vorhersage der klassische Shockley-Read-Hall-Theorie, statistisch ausgeprägtere STP mit wesentlich stärkeren Einfangzeitabhängigkeiten vom Drainstrom. Eine umfassende Analyse der experimentellen Daten, die bei tiefen Temperaturen aufgenommen/vermessen wurden, ermöglichte die Identifizierung des Ursprungs der einzelnen Fallen in den hergestellten TL NWs als einen Leerstellen-Bor-Komplex. Anhand der hergestellten TL NW FET Biosensoren wurden mehrere wichtige Effekte aufgedeckt, die eine Verbesserung der Sensorfähigkeiten von STP-basierten Bauelementen ermöglichen. Erstens wurde ein signifikanter Effekt der Kanaldotierung auf die Quantentunneldynamik von Ladungsträgern zu/von einer einzelnen Falle in TL-Nanostrukturen registriert, analysiert und im Rahmen des vorgeschlagenen analytischen Modells erklärt. Zweitens wurde ein ausgeprägter Feinabstimmungseffekt der STP-Parameter durch Anwendung eines Back-Gate-Potentials auf die LG TL NW FETs experimentell aufgedeckt und durch numerische Simulationen unterstützt. Diese einzigartige Eigenschaft von STP in TL NWs ermöglicht es, die Empfindlichkeit der STP-basierten Biosensoren auf eine gut kontrollierbareWeise zu verbessern. Darüber hinaus bieten STP in NW-FET-Bauelementen eine große Chance für die Unterdrückung des niederfrequenten Rauschens. Unter Berücksichtigung einer Trap Belegungswahrscheinlichkeit (g-Faktor) als Signal wurde eine neue Methode zur Abschätzung des g-Faktor-Rauschens vorgeschlagen und angewandt. Als Ergebnis wurde die effektive Unterdrückung des tieffrequenten Rauschens auch jenseits des thermischen Rauschgrenzpegels experimentell und numerisch nachgewiesen. Das abgeleitete analytische Modell zeigte eine hervorragende Übereinstimmung mit den Ergebnissen und unterstrich die Bedeutung von STP für Biosensorik-Anwendungen. Unter Ausnutzung der einzigartigen Vorteile von STP in den hergestellten TL-NW-FET-Biosensoren wurden mehrere Proof-of-Concept-Anwendungen einschließlich hochempfindlicher Detektion von chemischen und biologischen Zielanalyten demonstriert: mono- und divalente Ionen, Ascorbatmoleküle und Amyloid-beta-Peptide. Somit stellen die durchgeführten Experimente zusammen mit den entwickelten analytischen Modellen einen großen Fortschritt auf dem Gebiet der Biosensoren dar und ebnen den Weg für die nächste Generation neuartiger, ultrasensitiver bioelektronischer Sensoren, die Ein-Fallen-Phänomene nutzen. 308 338 282 An integrated approach to testing complex systems The increasing complexity of today's testing scenarios for complex systems demands an integrated, open, and flexible approach to support the managementof the overall test process. ``Classical'' model-based testing approaches, where a complete and precise formal specification serves as a reference for automatic test generation, are often impractical. Reasons are, on the one hand, the absence of a suitable formal specification. As complex systems are composed of several components, either hardware or software, often pre-built and third party, it is unrealistic to assume that a formal specification exists a priori. On the other hand, a sophisticated test execution environment is needed that can handle distributed test cases. This is because the test actions and observations can take place on different subsystems of the overall system. This thesis presents a novel approach to the integrated testing of complex systems. Our approach offers a coarse grained test environment, realized in terms of a component-based test design on top of a library of elementary but intuitively understandable test case fragments. The relations between the fragments are treated orthogonally, delivering a test design and execution environment enhanced by means of light-weight formal verification methods. In this way we are able to shift the test design issues from total experts of the system and the used test tools to experts of the system's logic only. We illustrate the practical usability of our approach by means of industrial case studies in two different application domains: Computer Telephony Integrated solutions and Web-based applications. As an enhancement of our integrated test approach we provide an algorithm for generating approximate models for complex systems a posteriori. This is done by optimizing a standard machine learning algorithm according to domain-specific structural properties, i.e. properties like prefix-closeness, input-determinism, as well as independency and symmetries of events. The resulting models can never be exact, i.e. reflect the complete and correct behaviour of the considered system. Nevertheless they can be useful in practice, to represent the cumulative knowledge of the system in a consistent description. Die steigende Komplexität heutiger Testszenarien für komplexe Systeme erfordert einen ganzheitlichen und offenen Ansatz zur Verwaltung des gesamten Testprozesses. Eine Anwendung klassischer modellbasierter Testansätze, in denen eine präzise und vollständige formale Spezifikation des Systems als Referenz zur automatischen Testfallgenerierung dient, ist in der Praxis nicht möglich.Gründe dafür liegen zum einen im Fehlen einer adäquaten formalen Spezifikation. Komplexe Systeme sind aus verschiedenen Komponenten zusammengesetzt, teils Hardware teils Software und oft auch aus Fremdkomponenten. Dadurch ist es inhärent unrealistisch anzunehmen, dass eine solche formale Spezifikation a priori existiert. Andererseits muss eine ausgereifte Testumgebung die Ausführung von verteilten Testfällen unterstützen, denn die Test-Stimuli und -Beobachtungen können an verschiedenen Teilkomponenten des Systems stattfinden.Diese Arbeit präsentiert einen neuartigen Ansatz für das ganzheitliche Testen komplexer Systeme. Der Ansatz stellt eine 'grobgranulare' Testumgebung zur Verfügung, die mittels einer komponentenbasierten Testfallbeschreibung realisiert ist. Die Basis dafür bildet eine Bibliothek von elementaren, aber intuitiv verständlichen Testfallfragmenten. Die Beziehungen zwischen den Testfallfragmenten sind orthogonal. Dies ermöglicht eine Testbeschreibung und -ausführung, die durch formale Verifikationsmethoden ergänzt wird. Hierdurch können die Testfallbeschreibungsaspekte von Experten des Systems und der verwendeten Testwerkzeuge zu Experten der Systemlogik verschoben werden. Der Ansatz wird durch verschiedene, industrielle Fallstudien in zwei verschiedenen Bereichen illustriert: Computer Telephony Integrations Lösungen und Webbasierte Applikationen. Als Erweiterung des ganzheitlichen Testansatzes wird ein Algorithmus zur a posteriori Generierung approximativer Modelle für komplexe Systeme vorgestellt. Dafür wurde ein bekannter Algorithmus aus dem Maschinellen Lernen an applikationsbedingte Charakteristika angepasst, wie Präfix-Abgeschlossenheit,Input-Determinismus, sowie Unabhängigkeit und Symmetrien zwischen Aktionen. Die resultierenden Modelle können zwar nie exakt sein, in dem Sinne, dass sie das vollständige und korrekte Systemverhalten abbilden. Dennoch können sie von hohem praktischen Nutzen sein, da sie das gesammelte Wissen über das System in einer konsistenten Beschreibungsform repräsentieren. 309 423 352 Real time dynamics and critical phenomena of quantum impurity systems Die Numerische-Renormierungsgruppe (NRG) hat sich zu einem Standardwerkzeug zur Simulation von Quantenstörtstellensystemen bei tiefen Temperaturen entwickelt. Für solche Simulationen sind drei Schritte notwendig: das Bad wird logarithmisch diskretisiert, auf eine Wilson Kette abgebildet und diese wird iterativ diagonalisiert. Für die NRG existieren zahlreiche Erweiterungen, von denen zwei für diese Arbeit relevant sind: zum einen die Behandlung bosonischer Systeme und zum anderen die Untersuchung von zeitabhängingen Prozessen. Wir stellen fest, dass die bosonische NRG falsche kritische Exponenten für den Phasenübergang des Spin-Bose-Modells (SBM) liefert und dass bei Nicht-Gleichgewichtsrechnungen Diskrepanzen zwischen den Ergebnissen eines kontinuierlichen und eines diskretisierten Bades bestehen. Durch die iterative Diagonalisierung der Wilson-Kette wird auf jeder Iterationsstufe eine Restkette vernachlässigt. Bei bosonischen Systemen führt dies zu einer iterationsabhängigen Renormierung der kritischen Kopplung. Anhand des Spin-Bose-Modells im sub-ohmischen Regime zeigen wir, dass dieser Effekt zu falschen kritischen Exponenten führt. Mit Dichtematrix-Renormierungsgruppe (DMRG) Rechnungen zeigen wir, dass man, unter Berücksichtigung der Restkette, die korrekten kritischen Exponenten bestimmen kann. Dies setzt eine optimierte bosonische Basis voraus, die wir während der DMRG variationell bestimmen. Anhand von Nicht-Gleichgewichtsberechnungen für das Resonant-Level-Model (RLM) zeigen wir, dass die logarithmische Baddiskretisierung zu unphysikalischen Ergebnissen der Störstellenbesetzung führt. Die Ursache hierfür führen wir auf interne Reflektionen einer Ladungswelle in der Wilson-Kette zurück. Um diese zu vermeiden, schlagen wir einen optimierten aus zwei aneinandergehängten Wilson-Ketten Kettenaufbau vor. Da es bei diesen Systemen keine klare Trennung der Energieskalen mehr gibt, ist die NRG nicht für die Berechnung solcher Systeme geeignet. Daher entwickeln wir eine neue Hybrid-Methode, bei der die NRG einen effektiven Niederenergie-Hamiltonoperator erzeugt, der anschließend mit der zeitabhängigen Dichtematrix-Renormierungsgruppe (TD-DMRG) simuliert wird. Durch dieses Schema erreicht man Zeitskalen, die sonst mit der TD-DMRG unerreichbar bleiben. Die neue Methode wird am RLM getestet. Als erste Anwendung der neuen Methode wird diese auf das wechselwirkende Resonant-Level-Modell (IRLM) angewendet. Bei diesem Modell beobachten wir durch die Wechselwirkung hervorgerufene Oszillationen und neue Zeitskalen, die keine thermodynamische Entsprechung haben. Die Ergebnisse der neuen Hybrid-Methode reproduzieren analytische Vorhersagen basierend auf einer 1/U Entwicklung. Die neue Hybrid-Methode liefert nicht nur in den Grenzwerten U gegen 0 und U gegen unendlich korrekte Ergebnisse, sondern ist im vollständigen Parameterregime anwendbar. 310 107 105 Tetracyclische N,S- und N,O-Hetarene mit exponierter Topologie In this work the synthesis of tetracyclic N,S- and N,O-heterocyclic compounds is investigated. First a full retrosynthetic analysis is presented. Isoindolo[2,1-b]benzothiazole can be prepared in good yield in two different ways. The synthesis of the isocyclic tetrachlorine-substituted N,S-hetarene and of the isoelectronic N,O-hetarene by means of cyclisation via intramolecular N-alkylation is not successful. The reaction spectrum of isoindolo[2,1-b]benzothiazole is investigated by electrophilic substitutions with C- and N-electrophiles and by [4+2]-cycloadditions with N-substituted maleinimides. The radical anions of tetracyclic N-hetarenes with the element of 1,8-anellated naphthenes are examined using ESR-spectroscopy. Full NMR-investigations accompany the experimental work. Semi-empiric calculations (MNDO, AM1 and PM3) are done for the target compounds. In der vorliegenden Arbeit wird die Synthese von tetracyclischen N,O- und N,S-Hetarene untersucht. Den Ausgangspunkt bildet eine umfassende retrosynthetische Analyse. Isoindolo[2,1-b]benzothiazol ist dabei auf zwei Wegen effektiv zugänglich. Die Herstellung des isocyclischen tetrachlorsubstituierten N,S-Hetarens und des isoelektronischen N,O-Hetarens mittels Cyclisierung durch intramolekulare N-Alkylierung gelingen nicht. Das Reaktionsspektrum von Isoindolo[2,1-b]benzothiazol wird durch elektrophile Substitutionsreaktionen mit C- und N-Elektrophilen und durch [4+2]-Cycloadditionen mit N-substituierten Maleinsäure-imiden überprüft. Die Radikalanionen von tetracyclischen N-Hetarenen mit dem Strukturelement von 1,8-anellierten Naphthalinen werden mit Hilfe der ESR-Spektroskopie untersucht. Umfassende NMR-Untersuchungen begleiten die synthetischen Untersuchungen. Für die untersuchten Zielverbindungen werden semi-empirische Berechnungen (MNDO, AM1, PM3) durchgeführt. 311 307 257 Influence of abiotic factors on growth and biosynthesis of secondary plant components in Duboisia species The Australian plant genus Duboisia has a long history of use dating back to the Aborigines and still today, it is main source of the medicinally used tropane alkaloids. Thereof scopolamine and its derivatives are often applied as anticholinergic agents in the treatment of postoperative nausea and vomiting, motion sickness as well as gastrointestinal, renal and biliary spasms. Until today, the global supply in scopolamine is mainly covered by large scale field cultivation of hybrids of Duboisia myoporoides and Duboisia leichhardtii. The objective of this work was to evaluate the impact of abiotic elicitors on growth and biosynthesis of secondary plant components in Duboisia species with special focus on scopolamine. Thereby, 1H NMR-based metabolite profiling was applied for a global analysis of primary and secondary metabolism comparing different genotypes, plant organs, growth stages and cultivation conditions. An appropriate HPLC-MS method was developed and validated for a detailed analysis of tropane alkaloids. The results demonstrate that the abundance of tropane alkaloids in Duboisia species is largely influenced by genetic characteristics as well as by environmental conditions, whereas the plant age plays an inferior role. In order to systematically analyse the influence of temperature, light and macronutrients on scopolamine biosynthesis and plant growth, plants of three different genotypes were grown in climate chambers under controlled conditions. The data analysis hereby reveals that especially the light intensity as well as the nitrogen supply have a major impact on the scopolamine and biomass production. All in all, this research contributes to a better understanding of the interaction of abiotic factors with alkaloid metabolism and plant growth. Prospectively, the employment of the methods established within this work will help to select promising genotypes in breeding as well as suitable cultivation conditions for an optimised production of scopolamine. Die in Australien beheimatete Pflanzengattung Duboisia, die historisch schon von den Aborigines verwendet wurde, ist bis heute die Hauptquelle der medizinisch genutzten Tropanalkaloide. Davon werden Scopolamin und dessen Derivate häufig als anticholinerge Wirkstoffe in der Behandlung von postoperativer Übelkeit und Erbrechen, Reiseübelkeit sowie gastrointestinalen, renalen und biliären Krämpfen angewandt. Bis heute wird die globale Marktversorgung mit Scopolamin hauptsächlich über den großflächigen Freilandanbau von Hybriden aus Duboisia myoporoides und Duboisia leichhardtii gewährleistet. Das Ziel dieser Arbeit war die Untersuchung des Einflusses von abiotischen Faktoren auf Wuchs und Biosynthese sekundärer Pflanzeninhaltsstoffe, insbesondere des Scopolamins, in Duboisia. Dabei wurde 1H NMR Metabolite Profiling für einen allgemeinen Vergleich des Primär- und Sekundärstoffwechsels verschiedener Genotypen, Pflanzenorgane, Altersgruppen und Anbaubedingungen eingesetzt. Darüber hinaus wurde eine passende HPLC-MS Methode für die Gehaltsbestimmung der enthaltenen Tropanalkaloide entwickelt und validiert. Die Ergebnisse zeigen, dass die Menge an Tropanalkaloiden in Duboisia stark von genetischen Merkmalen sowie von Umwelteinflüssen abhängt, während der Entwicklungszustand eine untergeordnete Rolle spielt. Um den Einfluss der Umweltfaktoren Temperatur, Licht und Makronährstoffe auf die Scopolaminbiosynthese und den Wuchs systematisch zu untersuchen, wurden Pflanzen dreier Genotypen unter kontrollierten Bedingungen in Klimakammern angebaut. Die Datenanalyse zeigt einen hohen Einfluss von Lichtintensität und Stickstoffversorgung auf die Scopolaminproduktion und das Pflanzenwachstum; diese Parameter können gezielt zur Steigerung von Scopolamin- und Biomasseproduktion genutzt werden. Zusammenfassend trägt diese Forschungsarbeit zu einem besseren Verständnis der Interaktion von abiotischen Faktoren mit dem Alkaloidstoffwechsel und dem Pflanzenwachstum bei. Zukünftig werden die in dieser Arbeit entwickelten Methoden dazu beitragen, vielversprechende Genotypen in der Züchtung zu selektieren und geeignete Anbaumethoden für eine optimierte Scopolaminproduktion auszuwählen. 312 143 144 Optische Kurzstreckenverbindungen auf der Basis polymeroptischer Komponenten Passive, optical components for short range data transmission are basic components for optical networks. As low cost material for optical waveguides plastic will be chosen. To enable high speed communication between CPUs in multiprocessor computers a component for multichannel datatransfer will be realised. For highly accurate positioning of the thin Plastic Optical Fibre (POF) in a two dimensional array established technologies are used. The achieved results and the integration in a demonstrator are described in details. To realise POF based optical networks starcouplers based on plastic are needed. Two ways for the realisation are examined: One is based on the lithography technique known from semiconductors and a second on etch technique. After electroplating a tool is used to transfer the structures with hot embossing. With an optical glue, fixing of a top foil and passive coupling of the POF the component is finished. Passive optische Bauteile für die Übermittlung von Daten über kurze Strecken stellen Basiskomponenten für optische Netzwerke dar. Um die Kosten gering zu halten werden in dieser Arbeit Lichtleiter auf Kunststoff-Basis verwendet. Zur schnellen Kommunikation zwischen Prozessoren in Multiprozessor Computern wird ein Bauteil für die vielkanalige Datenübermittlung realisiert. Um eine hochpräzise Positionierung der dünnen Plastik Optischen Faser (POF) in einem zweidimensionalen Raster zu ermöglichen, werden etablierte Technologien verwendet. Die erzielten Ergebnisse und die Integration in einen Demonstrator werden ausführlich dokumentiert. Zur Realisierung von optischen Netzwerken auf POF-Basis werden in Kunststoff realisierte Sternkoppler benötigt. Zwei Kopplerarten werden realisiert: Eine wird mit Hilfe der Lithographietechnik und eine zweite mit Ätztechniken erreicht. Nach galvanischer Abformung eines Stempels wird durch Heissprägen die Struktur in Plastik übertragen. Nach Verkleben und Aufbringen eines Deckels, sowie der passiven Ankopplung der POF, ist das Bauteil realisiert. 313 137 123 Synthese und biologische Evaluierung photoaktivierbarer menschlicher N-Ras-Peptide und -Proteine This thesis describes the development of a modular construction kit approach for the synthesis of photoaffinity-labelled human N-Ras-peptides and -proteins. The method allows to synthesize 'tailor-made' probes for studying the post-translational modification of Ras-proteins and their interactions with other proteins. Key step of the synthesis is the fragment condensation of benzophenone-labelled prenylated cysteines with peptides synthesized on the polymeric support. Biological experiments furnished a proof of principle.Furthermore, phenylhydrazides were established as an enzyme-labile C-terminal protecting group in the synthesis of peptides and peptide conjugates. Their cleavage occurs under mild conditions at room temperature and neutral pH using tyrosinase isolated from mushrooms. The chemo- and regioselectivity of the biocatalyst is excellent, and the protecting group is orthogonal to the most important carbamate protecting groups. Mechanistic investigations revealed that the cleavage occurs in a two-step process liberating phenyl radicals. Im Rahmen dieser Dissertation wurde ein Baukastenkonzept zur Synthese photoaffinitätsmarkierter menschlicher N-Ras-Peptide und -Proteine entwickelt. Damit konnten maßgeschneiderte 'Sonden' für die Untersuchung der post-translationalen Modifikation der Ras-Proteine sowie ihrer Wechselwirkung mit anderen Proteinen bereitgestellt werden. Schlüsselschritt der Synthese ist die Kondensation Benzophenon-markierter, prenylierter Cysteinfragmente mit am polymeren Träger aufgebauten Peptiden. In biologischen Experimenten wurde die Gültigkeit des Konzepts unter Beweis gestellt.Darüber hinaus konnten Phenylhydrazide als enzymatisch mit Tyrosinase abspaltbare C-terminale Schutzgruppe in der Synthese von Peptiden und sogar Peptidkonjugaten etabliert werden. Die Abspaltung erfolgt bei neutralem pH und Raumtemperatur mit ausgezeichneter Chemo- und Regioselektivität und erwies sich als orthogonal zu den gängigen Carbamatschutzgruppen. Mechanistische Untersuchungen zeigten, dass bei der zweistufigen Abspaltung Phenylradikale freigesetzt werden. 314 152 151 In this work various tandem hydroformylation reactions are described. With these rhodium catalysed transformations are both benzanellated oxygen-heterocycles via a tandem hydroformylation / hemiacetalisation and aminoalkylphenols via hydroaminomethylation accessible. As model substrates are o-allylic phenols and o-vinylic phenols used, which enable the preparation of structural elements of important natural products and agents. Thus the synthesis of substituted benzopyrans, benzofurans and benzoxepins is described. The attention is turned to the development and application of various methods for controlling the regioselectivity of these reactions. Analogously the same unsaturated alcohols can be transformed to butyl and propyl amino phenols. However additional problems of controlling the chemoselectivity of the hydroaminomethylation must be solved.The applicability of the reactions and methods presented is demonstrated at selected model investigations towards the synthesis of pharmacological active compounds, such as the regioselective synthesis of 4,4-diarylbutylamines, the synthesis of tolterodine, an active substance against urinary incontinence or the synthesis of different tetrahydrofuro[2,3b]benzofurans. Hydroformylierung und Hydroaminomethylierung von ortho-Alkenylphenolen 315 536 450 The appearance of macro-regional strategies (MRS) has stimulated discussions regarding new concepts of territorial cooperation in the EU. As a result of ongoing globalization and Europeanization, functional linkages become more and more important, hence leading to new conceptualizations of territory based on functional approaches. MRS constitute an adaptation process and shape spatial development as well as the creation of networks. In the light of the rescaling debate, MRS operate as a new framework for cooperation in the multi-level governance system of the EU. Forming a strategic roof, they link regional policies as a project focused approach with sectoral policies. After the development of the first EU macro-regional strategy for the Baltic Sea Region similar initiatives evolved quickly, leading to the adoption of the EU Danube Region Strategy (EUDRS) in June 2011. Driven by the current interest in macro-regional strategies, this thesis focuses on the evaluation of perspectives and expectations towards this new framework for cooperation. Based on the analysis of the EUDRS from a stakeholder perspective, it is on the one hand of interest to improve the understanding of the MRS concept, its underlying developments and to comprehend the coordination. Examining the perspectives on potential added value and challenges of relevant stakeholders in the Danube region, expectations towards a successful implementation are identified. On the other hand, it is of interest to understand the macro-regional approach from a scientific point of view. MRS evolved along with discussions on the possibility of building a new layer of intervention to cope with common challenges in relational geographies. The emergence of soft spaces is one of the most significant contemporarily discussed phenomena. Soft spaces describe informal and fuzzy shaped spaces that emerge from cooperation across various ranges of geographies, scales, sectors and actor-networks operating within the legal set of boundaries. In the light of the rescaling debate it is to be analysed whether MRS, initiated by nation states and thus following mainly a political logic, can build an appropriate framework for governance within fuzzy functional geometries. Part of this work is to examine whether the concept of soft spaces can be applied to further explain processes on the macro-regional level. This thesis points out that the EUDRS results from a political process focusing on functional challenges. Furthermore, the conclusion is drawn that macro-regions do not constitute a decision-making-level by itself, as no political power is relocated. Nonetheless, soft types of cooperation will gain further importance in the transnational context. Based on the analysis of the EUDRS a significant potential is seen in MRS to link existing networks in functional regions, as they enable efficient cooperation between territorially and functionally focused stakeholders by its novel governance structure. In general, the concept of soft spaces can be deployed for explaining the macro-regional processes. For soft spaces under the roof of the meta-governance level of the strategy, the priority areas have been identified as the spaces of opportunities. The thesis concludes that the success of MRS as a framework for thriving future territorial cooperation depends on the political commitment of the national states and key stakeholders, to identify and deploy the potential of the steering groups as a strategic network for transnational activities, and on the adequate communication of the added value. Mit der Entwicklung des Konzeptes der makroregionalen Strategien (MRS) hat in den vergangenen vier Jahren die Diskussionen um neue Formen der transnationalen Zusammenarbeit in der EU eine neue Dynamik angenommen. Vor dem Hintergrund voranschreitender Globalisierung und Europäisierung gewinnen funktionale Verflechtungen als Grundlage für Kooperationen an Bedeutung. MRS sind ein Anpassungsprozess und haben Einfluss auf die räumliche Entwicklung und Netzwerkbildung. Sie tragen zum Ziel der territorialen Kohäsion bei und verbinden die Regionalpolitik als projektorientierten Ansatz mit den sektoralen Planungen und geben diesen durch einen strategischen Ansatz ein Dach. Nach der Entwicklung der Ostseestrategie entstanden schnell ähnliche Initiativen, sodass mit der EU-Strategie für den Donauraum (EUDRS) im Juni 2011 die zweite MRS verabschiedet wurde. Angesichts des großen Interesses an strategischen, auf makroregionale Herausforderungen zugeschnittenen Formen der Zusammenarbeit liegt der Schwerpunkt dieser Arbeit auf der Einschätzung der Perspektiven für makroregionale Kooperationen in der EU. Das Erkenntnisinteresse der Arbeit besteht darin das Konzept der MRS besser zu verstehen und am Beispiel der EUDRS die Entwicklung, die Koordinierung sowie die potentiellen Mehrwerte und Herausforderungen aus Perspektive der Akteure nachzuvollziehen. Weiterhin besteht das Erkenntnisinteresse darin die Hintergründe für die makroregionale Kooperation zu verstehen und die Perspektiven für eine Zukunft in der EU zu analysieren. MRS entstehen in funktionalen Verflechtungsräumen und werden in Verbindung mit einer Regionalisierung der EU durch das Entstehen einer neuen Handlungsebene diskutiert. Die Entstehung von weichen, netzwerkartigen Kooperationsansätzen in Ergänzung zur formalen politischen Steuerung wird durch das Konzept der soft spaces aufgegriffen. Soft spaces beschreiben informelle, flexible Raumzuschnitte, die durch Kooperation über verschiedene Ebenen, Sektoren und Akteursgruppen entstehen. In dieser Arbeit wird die Übertragbarkeit des Konzeptes der soft spaces zur Erklärung der Vorgänge auf makroregionaler Ebene untersucht. Die Arbeit stellt heraus, dass die EUDRS das Ergebnis eines politischen Prozesses ist, der funktionale Herausforderungen in den Fokus setzt. Weiterhin kommt die Arbeit zu dem Schluss, dass Makroregionen keine eigene Handlungsebene darstellen, da keine Entscheidungskompetenz auf diese Ebene verlagert wird. Gleichwohl werden neue, weiche Kooperationsformen im transnationalen Zusammenhang weiter an Bedeutung gewinnen. Auf Grundlage der Analyse der EUDRS wird MRS das Potenzial zugesprochen die bestehenden Netzwerke in funktionalen Verflechtungsräumen zu verbinden, da sie in ihrer Governancestruktur die Möglichkeit für eine effiziente Kooperation zwischen territorial und funktional orientierten Akteuren bietet. Das Konzept der soft spaces lässt sich zur Beschreibung der Vorgänge auf makroregionaler Ebene anwenden. Dabei werden die Schwerpunktbereiche als die Möglichkeitsräume für soft spaces unter dem Dach der Metagovernanceebene der Strategie identifiziert. Ob MRS eine Perspektive für die zukünftige territoriale Zusammenarbeit sind, hängt nach den Erkenntnissen aus der Analyse der EUDRS von dem politischen commitment der Nationalstaaten und Schlüsselakteure, dem Erkennen und Nutzen des Potenzials der Steering Groups als politstrategisches Netzwerk zur Vorbereitung transnationaler Aktivitäten, sowie von einer geeigneten Kommunikation des Mehrwertes der Strategie ab. 316 133 152 Is a skills gap blocking the new economy? In the last few years the IT industry has become the focus of attention of politics and economy. In spite of increasing problems the industry is complaining loudly that a skills gap is causing growth and job losses. But how can it be that amidst of a huge army of unemployed there is an emerging shortage of workers? What are the reasons for the skills gap? Is this actually a real gap? Or is it simply the result of the well-known desire of firms for an "Olympic" workforce? In this article the author tries to find answers to these questions. He analyses the interaction of work, knowledge and economic growth before testing the argument more deeply that a skills gap is blocking the new economy. Fachkräftemangel 317 118 117 Mikrofluidisches Analysesystem zur Untersuchung von wässrigen Lösungen Fast, exact and cheap analytical devices for environmental control, food analysis, industrial water control and control of drink water are getting more and more important in times of restrictions for industry and a higher consciousness for our environment. In this work the development of a microfluidic analytic plastic device was the main aim. The detection methods should enclose electrical, electrochemical and optical methods. Capillary electrophoresis and isotachophoresis are the methods for separation. All steps of production were developed and tested in laboratory scale and most of the steps were up scaled to mass production. The power of these devices was proved by research institutes and by an industrial partner. Most of the productions steps are registered for patents. In Zeiten immer strenger werdender Auflagen für die industrielle Abwasserentsorgung, gestiegene Qualitätskontrollen in Lebensmitteln und ein stark gestiegenes Umweltbewusstsein, ist es erforderlich, Analysegeräte zur Verfügung zu stellen, mit deren Hilfe schnell, genau und preiswert Analysen durchgeführt werden können. Diese Arbeit hatte die Entwicklung eines mikrofluidischen Analysengerätes auf Polymerbasis zum Ziel. Die Detektion wird sowohl elektrisch/elektrochemisch als auch optisch realisiert. Als Trennverfahren kommen die Kapillarelektrophorese (CE) und die Isotachophorese (ITP) zum Einsatz. Die einzelnen Prozessschritte wurden im Labormaßstab erprobt und anschließend größtenteils für die Großserie umgesetzt. Die Leistungsfähigkeit dieser Mikrofluidik-Chips wurde durch Forschungseinrichtungen und einen industriellen Partner unter Beweis gestellt. Mehrere im Rahmen dieser Promotion erarbeitete Verfahrensschritte wurden zum Patent angemeldet. 318 174 132 Modelling and simulation of adaptation and degradation in anisotropic biological tissues This thesis deals with the constitutive modelling of adaptation and degradation processes for the simulation of the material behaviour of anisotropic biological tissues. The modelling is based on the framework of finite deformation continuum mechanics. The constitutive models proposed are motivated by elastic and inelastic physical mechanisms originating from the micro-mechanical structure of the material. With regard to the modelling of soft biological tissues, e.g. arteries, the range of topics covers the investigation of energetic properties of an anisotropic residually stressed non-linear elastic continuum, a gradient-enhanced continuum damage model for the progressive failure of collagen fibres and a remodelling formulation for the deformation-driven evolution of anisotropy. With regard to adaptation processes in hard biological tissues, e.g. bone, a growth model for the energy-driven evolution of density is proposed. The constitutive models are discussed with respect to their numerical implementation. The modeling capabilities of the constitutive formulations are validated by homogeneous deformation cases and illustratively underlined by a variety of different finite element simulations. Die vorliegende Arbeit befasst sich mit der konstitutiven Beschreibung von Adaptions- und Schädigungsvorgängen für die Simulation des Materialverhaltens anisotroper biologischer Gewebe auf Grundlage der Kontinuumsmechanik finiter Deformationen. Die konstitutiven Modelle basieren auf elastischen und inelastischen physikalischen Phänomenen, welche auf der Mikroebene des jeweiligen Materials in Erscheinung treten und das makroskopische Materialverhalten maßgeblich beeinflussen. Im Hinblick auf die Modellierung weicher biologischer Gewebe werden zunächst die mechanischen Eigenschaften eines anisotropen nichtlinear elastischen Kontinuums unter Eigenspannungen untersucht. Desweiteren wird eine gradienten-erweiterte Schädigungsformulierung für das kontinuierliche Versagen von Kollagenfasern entwickelt und ein Modell für die Anisotropie-Entwicklung unter mechanischer Belastung präsentiert. Im Hinblick auf Adaptionsvorgänge in harten biologischen Geweben, wie zum Beispiel Knochen, wird ein Energie-getriebenes anisotropes Wachstumsmodell vorgeschlagen. Die konstitutiven Modelle werden mit Hilfe homogener Deformationsfälle validiert und ihre Leistungsfähigkeit durch eine Reihe verschiedener Finite-Elemente-Simulationen hervorgehoben. 319 303 290 Remote vision based multi gesture interaction in natural indoor environments Computer vision as a sensor of interaction with technical systems has found increasing interest in the past few years. In many of the proposed case studies and applications, the user's current pose or motion is observed by cameras attached to a computer, and the computer's reaction is displayed to the user who changes the pose accordingly in order to reach a desired goal of interaction. The focus of this thesis is on two major difficulties of computer vision-based, or perceptual, human-computer interaction: distinguishing gestures from arbitrary postures or motions, and coping with troubles caused by natural environments. Furthermore, we address the question of decoupling the computer vision-based interface from the application in order to achieve independency between both, analogously to today's application-independent graphical user interfaces. The main contributions are - a so-called “interaction space architecture” which decouples the computer vision interface from the application by using a sequence of interaction spaces mapped on each other, - a concept of “multi-type gesture interaction” which combines several gestures with spatial and temporal constraints in order to increase the reliability of gesture recognition, two concepts of optical calibration of the interaction space which reduce the efforts of integrating the cameras as sensors in the environment of interaction, a solution to the problem of combining pointing gestures with static hand gestures, by using static cameras for global views and computer-controlled active cameras for locally adapted views, a combination of several methods for coping with unreliable results of image segmentation caused by varying illumination typical for natural environments: error detection and contour correction from image sequences and multiple views, situation-dependent signal processing, and automatic parameter control. The concepts are proved based on a system for computer vision-based interaction with a backprojection wall, which has been implemented and evaluated. Der Einsatz von Computersehen als Sensor für die Interaktion mit technischen Systemen hat in den letzten Jahren starkes Interesse gefunden. In vielen der bekannt gewordenen Fallstudien und Anwendungen werden Posen oder Bewegungen einer interagierenden Person durch einen Rechner, der mit Kameras ausgestattet ist, beobachtet, und die Reaktionen des Rechners dem Benutzer angezeigt, der sein Verhalten dann so ändert, dass ein gewünschtes Interaktionsziel erreicht wird. Diese Arbeit greift zwei wesentliche Schwierigkeiten der computersehensbasierten oder perzeptuellen Mensch-Maschine-Interaktion auf: das Unterscheiden von Gesten von willkürlichen Körperhaltungen oder Bewegungen sowie der Umgang mit natürlichen Umgebungen. Ferner wird die Frage der Abtrennung der computersehensbasierten Schnittstelle von der Anwendung angegangen, analog zu heutigen anwendungsunabhängigen graphischen Benutzungsschnittstellen. Wesentliche Beiträge sind - eine so genannte "Interaktionsraumarchitektur", die die computersehensbasierte Schnittstelle von der Anwendung durch eine Folge von Interaktionsräumen entkoppelt, die aufeinander abgebildet werden, - eine so genannte "Interaktionsraumarchitektur", die die computersehensbasierte Schnittstelle von der Anwendung durch eine Folge von Interaktionsräumen entkoppelt, die aufeinander abgebildet werden, - ein Konzept der "Mehrtyp-Gesteninteraktion", die verschiedene Gesten mit örtlichen und zeitlichen Randbedingungen kombiniert, um so die Zuverlässigkeit der Gestenerkennung zu erhöhen, - zwei Konzepte zur optischen Kalibrierung des Interaktionsraumes, die den Aufwand der Integration von Kameras in die Interaktionsumgebung reduzieren, - eine Lösung des Problems der Kombination von Zeigegesten mit statischen Handgesten durch die Verwendung von statischen Kameras für globale Ansichten und rechnergesteuerten aktiven Kameras für lokal angepasste Ansichten, - eine Kombination von mehreren Methoden, um das Problem von unzuverlässigen Ergebnissen der Bildsegmentierung zu mindern, die durch wechselnde Beleuchtung, die für natürliche Umgebungen typisch ist, hervorgerufen werden: Fehlererkennung und Konturkorrektur auf Grundlage von Bildfolgen und mehreren Ansichten, situationsabhängige Signalverarbeitung sowie automatische Parameteranpassung. Die Tragfähigkeit der Konzepte wird anhand eines Systems zur computersehensbasierten Interaktion mit einer Rückprojektionswand nachgewiesen, das implementiert und evaluiert wurde. 320 245 200 Distribution of functionalities at different scales within a multifunctional reactor The performance of heterogeneous catalyst systems are influenced by mass and heat transport phenomena occurring in the catalyst pellet. Although, in general, transport resistances may be viewed as detrimental to the performance of catalysts, it has been demonstrated that a prudent structuring of catalyst activity within the pellet can actually exploit the transport limitations to enhance process performance (Morbidelli, et al., 1982). Analogous spatial structuring studies have also been carried out at a reactor level. This work highlights the potential benefits of a structured distribution of functionalities in multifunctional reactor systems at both the pellet and reactor levels. The concept of spatial structuring in multifunctional reactors is illustrated using two case studies - adsorptive reactors for the Claus process and bifunctional catalysts for styrene synthesis using oxidative reheat technology. The "approach to equilibrium" is a useful parameter to analyse how structuring can be carried out expediently within a reactor. The following key conclusions can be drawn from the work done: - structuring is crucial decision variable for any multifunctional reactor; - optimal distribution of functionalities at a reactor level (macrostructuring) improves the reactor performance and sometimes, the optimal macrostructure may be simply a uniform distribution of functionalities along the reactor length; - integration of functionalities at the pellet level circumvents transport limitations and improves the overall reactor performance; - microstructuring can improve the performance of a process, though often the micro-integration of functionalities is sufficient Die Leistung heterogener Katalysatorsysteme unterliegt dem Einfluß von Massen- und Wärmetransportphänomenen innerhalb des Katalysator-korns. Obwohl allgemein Transportwiderstände als leistungsmindernd angesehen werden, konnte nachgewiesen werden, dass eine durchdachte Verteilung der Aktivitäten innerhalb des Katalysatorkorns die Transportlimitierung ausnutzen kann, um die Prozesseffizienz zu steigern (Morbidelli, et al., 1982). Analog wurden räumlich strukturierende Studien auf Reaktorniveau durchgeführt. Diese Arbeit beleuchtet den potentiellen Nutzen der Strukturierung von Funktionalitäten in multifunktionalen Katalysatorsystemen, sowohl innerhalb des Katalysatorkorns, als auch des Reaktors. Das Konzept der räumlichen Strukturierung in multifunktionalen Reaktoren wird anhand zweier Beispiele illustriert: adsorptive Reaktoren für den Clausprozeß und die bifunktional katalysierte Styrolsynthese unter Einsatz oxidativer Wärmespeicher-Technologie. Die Annäherung an den Gleichgewichtszustand ist eine hilfreiche Größe, um zu bestimmen, wie eine zweckmäßige Strukturierung im Reaktor stattfinden kann. Im Wesentlichen können die folgenden Schlüsse aus dieser Arbeit gezogen werden: - Strukturierung ist ein ausschlaggebender Entscheidendungsparameter in jedem multifunktionalen Reaktor; - Eine optimale Verteilung von Funktionalitäten auf Reaktorebene (Makrostrukturierung) verbessert die Leistung des Reaktors und die optimale Makrostruktur kann auch einfach eine gleichmäßige Verteilung der Funktionalitäten über die Reaktorlänge sein; - Integration der Funktionalitäten auf Katalysatorkornebene umgeht Transportlimitierungen und verbessert die Reaktorgesamtleistung; - Mikrostrukturierung kann die Leistung des Prozesses verbessern, obwohl meist die Mikrointegration der Funktionalitäten ausreicht. 321 251 223 Grundlagen der Prozessgestaltung für das Fügen durch Weiten mit Innenhochdruck Within the scope of intensive development of vehicle technology, a special focus has since recently been placed on the optimization of the power train technology and the reduction of car bodies’ weight. The aim of this advancement is, besides the reduction of the overall vehicle fleet consumption, a reduction of the CO2 output from 185 g (1995) to less than 120 g per driven kilometer until 2012. Here, a successful approach to reduce the vehicle weight is, the application of lightweight construction strategies, as for example the material lightweight construction by use of aluminum. A major trend in industrial manufacturing is the production of highly individualized products. This trend generates a demand on processing technologies for small batch series. These products have to be manufactured using flexible manufacturing systems which allow the manufacturing of high quality products with sufficient process capability. Consequently, the manufacture of single components made of lightweight construction materials and their assembly to form groups must be executed certainly beyond trial. For this reason, the aim of the present work is to present fundamental calculations on the basis of Lamé equations for the joining by expansion, using the example of dieless hydroforming. As a result, the design of joints can be executed taking material characteristics, the geometry of the joining partners, and the working pressure into account. Experimental investigations have been executed using simple joining tools and specially adopted high pressure equipment. Additionally, design rules for a process adopted joint using mere force-fit or supporting adhesives are represented. Im Rahmen der schwerpunktmäßigen Weiterentwicklung der Fahrzeugtechnologie wird zurzeit auf die Optimierung der Antriebstechnik und die Verringerung des Fahrzeuggewichts fokussiert. Das Ziel dieser Weiterentwicklung ist neben der Reduktion des Flottenverbrauchs eine Reduktion des CO2-Ausstoßes von 185 g (1995) auf unter 120 g pro gefahrenen Kilometer bis zum Jahr 2012. Dabei ist eine erfolgreiche Vorgehensweise zur Reduktion des Fahrzeuggewichtes die Umsetzung von Leichtbaustrategien, wie beispielsweise die des Werkstoffleichtbaus durch Verwendung von Aluminium. Der Trend in der industriellen Fertigung zu individualisierten Produkten bestimmt die Forderung nach Fertigungsverfahren, die für einen Einsatz in der Kleinserienfertigung geeignet sind. Individualisierte Produkte generieren den Bedarf nach flexiblen, kleinserientauglichen Prozessketten, die in der Lage sind, hohe Produktqualitäten prozesssicher zu fertigen. Hier gilt es, die Fertigung von Einzelbauteilen und das Fügen zu Baugruppen, die aus Leichtbauwerkstoffen gefertigt worden sind, prozesssicher zu ermöglichen. Ziel der vorliegenden Arbeit ist es daher, für das Fügen durch Weiten – am Beispiel des gesenkfreien, wirkmedienbasierten Innenhochdruckfügens – Berechnungsgrundlagen, auf der Basis der Lamé–Gleichungen, zu liefern. Die Fügestellengestaltung hängt dabei von den Werkstoffen und Geometrien der Fügepartner ab. Die Fügeprozessführung erfolgt unter Berücksichtigung der zu verbindenden Fügepartner mit einfachen Fügewerkzeugen und unter Verwendung entsprechend ausgelegter Betriebsmittel. Zusätzlich werden Gestaltungshinweise für eine prozessangepasste Fügestellengestaltung gegeben, die es ermöglicht, eine Lastübertragung kraftschlüssig oder mithilfe von unterstützendem Strukturklebstoff zu gewährleisten. 322 312 316 Untersuchung von strukturellen und elektronischen Phasenübergängen geologisch relevanter Probensysteme bei extremen Drücken mittels XRS und XES Geology investigates the structure and development of the Earth from the crust to the core. In this doctoral thesis prevalent materials in the Earth mantle are examined. The Earth‘s mantle extends to a depth of 2890 km and mostly consists in large parts of silicates, oxides and carbonates. With increasing depth temperature and pressure rise significantly up to 4000 K and 135 GPa. Depending on these extreme conditions, electronic and/or structural phase transitions may occur that directly influence the physical properties of the Earth’s mantle. Therefore, the local atomic and electronic structure of geologically relevant samples is investigated in-situ under extreme pressures and temperatures of up to 108 GPa and 1500 K by means of X-ray Raman Scattering (XRS) and X-ray Emission Spectroscopy (XES). In the first part, the pressure induced spin transition of Fe2+ in iron bearing carbonates is studied simultaneously using XRS an XES. These iron bearing carbonates are potential candidates for carbon transport and storage in the Earth's interior and therefore play an important role in the Earth's global carbon cycle. In the second part of the presented doctoral thesis, the compaction mechanism of SiO2 glass is investigated using XRS and compared with results from molecular dynamics simulations. In this part of the work coordination numbers of silicon and oxygen are extracted at pressures up to 108 GPa at room temperature. In the third part of the thesis the influence of the incorporation of water into silicate glasses and melts is studied ex-situ and in-situ using XRS. First in-situ experiments of a water-containing NaAlSi3O8 melt show that the measurement of a melt at extreme temperatures and pressures using XRS is generally feasible. The studies and the corresponding results of this thesis illustrate the power of XRS and XES to examine the local atomic and electronic structure of geologically relevant samples both ex-situ and in-situ under extreme pressures and temperatures. Die Geologie beschäftigt sich mit dem Aufbau sowie der Entwicklung der Erde von der Kruste bis zum Kern. In dieser Dissertation werden Materialien des Erdmantels untersucht. Der Erdmantel erstreckt sich bis zu einer Tiefe von 2890 km und besteht in großen Teilen aus Silikaten, Oxiden und Karbonaten. Mit zunehmender Tiefe steigen Temperatur und Druck signifikant bis 4000 K und 135 GPa an. Abhängig von diesen extremen Bedingungen kann es zu elektronischen und/oder strukturellen Phasenübergängen kommen, die direkt die physikalischen Eigenschaften des Erdmantels beeinflussen. Daher werden im Rahmen der vorliegenden Arbeit die lokale atomare und elektronische Struktur geologisch relevanter Proben in-situ unter extremen Drücken und Temperaturen von bis zu 108 GPa und 1500 K mittels Röntgen-Raman Streuung (XRS, engl.: X-ray Raman Scattering) und Röntgenemissionsspektroskopie (XES, engl.: X-ray Emission Spectroscopy) studiert. Im ersten Teil wird der druckinduzierte Spinübergang von Fe2+ in eisenhaltigen Karbonaten simultan mittels XRS und XES untersucht. Diese eisenhaltigen Karbonate stellen potentielle Kandidaten für den Kohlenstofftransport und die Kohlenstoffspeicherung im Inneren der Erde dar und spielen daher eine wichtige Rolle für den globalen Kohlenstoffkreislauf der Erde. Im zweiten Teil der vorliegenden Arbeit wird der Verdichtungsmechanismus von SiO2 Glas mittels XRS untersucht und mit Ergebnissen aus Molekulardynamik-Simulationen verglichen. In diesem Teil der Arbeit werden u.a. Koordinationszahlen von Silizium und Sauerstoff bei Raumtemperatur bis zu einem Druck von 108 GPa extrahiert. Im abschließenden Kapitel wird der Einfluss des Einbaus von Wasser in Silikatgläsern und –schmelzen ex-situ und in-situ mittels XRS studiert. Erste in-situ Experimente einer wasserhaltigen NaAlSi3O8 Schmelze zeigen, dass die Vermessung einer Schmelze bei extremen Temperaturen und Drücken mittels XRS generell möglich ist. Die im Rahmen dieser Dissertation durchgeführten Studien zeigen, dass XRS und XES sehr mächtige Werkzeuge darstellen, um die lokale atomare und elektronische Struktur geologisch relevanter Proben ex-situ als auch in-situ unter extremen Drücken und Temperaturen untersuchen zu können. 323 316 308 Temperaturgesteuertes Katalysatorrecycling für die homogen katalysierte Hydroformylierung langkettiger Alkene One important challenging task of homogeneous catalysis is the efficient separation of product and catalyst to enable recycling of the precious catalyst metal. After homogeneous reaction, thermomorphic solvent systems (TMS systems) offer the opportunity of temperature-controlled separation and recycling of homogeneous catalysts via phase separation. Therefore, the aim of this work is the experimental investigation of the homogeneously catalyzed hydroformylation of long-chain alkenes applying the TMS process concept. In particular the rhodium catalyzed hydroformylation of 1-dodecene to n-tridecanal with the ligand Biphephos in the TMS reference system DMF/decane served as model reaction. For an integrated process development, the catalyst system, TMS systems as well as the reaction and phase separation were investigated systematically through laboratory experiments. Especially the ligand contributes to the homogeneous metal catalyst’s activity, selectivity and stability. Within this work, the investigation of catalyst separation was accomplished systematically. For the development of an economic process, preferably entire recycling of the precious metal is required. Therefore, it was investigated in this work, if catalyst leaching can be influenced, which are significant influencing factors and how catalyst leaching can be minimized efficiently in particular. It was demonstrated that undesired catalyst leaching is based on the loss of catalyst phase and is significantly affected by the substrate, catalyst concentration and the product which is formed during reaction. Moreover, the product influences phase behavior and therefore the operating window of TMS systems. The TMS concept was successfully applied in recycling experiments. After phase separation the catalyst-containing phase was reused. By reducing the separation temperature, the separation efficiency of product and catalyst can be improved. For the first time, a catalyst recycling in 30 recycling runs was demonstrated in a TMS system. Thus, long-term stability of the rhodium catalyst was established experimentally. Moreover, the conclusions of this work contributed to the design and construction of a continuous miniplant for the rhodium catalyzed hydroformylation of long-chain alkenes in TMS systems. Eine wichtige technologische Herausforderung der homogenen Katalyse besteht darin eine effiziente Trennung von Produkt und Katalysator zu gewährleisten, um das wertvolle Katalysatormetall zu rezyklieren. Der Einsatz des Verfahrenskonzeptes der thermomorphen Mehrkomponenten-Lösungsmittelsysteme (TML-Systeme) ermöglicht nach der homogen katalysierten Reaktion eine temperaturgesteuerte Abtrennung und das Recycling des homogenen Katalysators mittels Phasenseparation. Ziel dieser Arbeit ist deshalb die experimentelle Untersuchung der homogen katalysierten Hydroformylierung langkettiger Alkene unter Anwendung des Verfahrenskonzeptes der TML-Systeme. Als Modellreaktion wurde insbesondere die Rhodium-katalysierte Hydroformylierung des langkettigen 1-Dodecens zu n-Tridecanal mit dem Liganden Biphephos in dem TML-Referenzsystem DMF/Decan betrachtet. Im Sinne einer ganzheitlichen Prozessentwicklung sind grundlegende, systematische Untersuchungen zum Katalysatorsystem, zu TML-Systemen sowie zur Reaktion und Phasenseparation im Labormaßstab erfolgt. Vor allem der Ligand besitzt einen entscheidenden Einfluss auf die Aktivität, Selektivität und Stabilität des homogenen Metallkatalysators. Im Rahmen dieser Dissertation wurde der Fokus auf die systematische Untersuchung der Katalysatorabtrennung gelegt. Um ein wirtschaftlich rentables Verfahren zu ermöglichen, ist eine möglichst vollständige Rückführung des Katalysators erforderlich. Daher wurde in dieser Arbeit untersucht, ob das Katalysatorleaching beeinflusst werden kann, welche Einflussfaktoren signifikant sind und wie es insbesondere effektiv minimiert werden kann. Es wurde nachgewiesen, dass neben dem Austrag der Katalysatorphase auch das Substrat, die Katalysatorkonzentration und das in der Reaktion entstehende Produkt einen Einfluss auf das unerwünschte Katalysatorleaching ausüben. Darüber hinaus bestimmt das Produkt maßgeblich das Phasenverhalten und somit das Betriebsfenster von TML-Systemen. Erfolgreich angewendet wurde das Konzept der TML-Systeme in Recycling-experimenten, in denen die Katalysatorphase nach dem Phasenseparationsschritt rezykliert wurde. Durch Absenkung der Separationstemperatur konnte die Effizienz der Trennung von Produkt und Katalysator gesteigert werden. Erstmalig wurde ein Katalysatorrecycling in 30 Recyclingzyklen durchgeführt und damit experimentell die Langzeitstabilität des Rhodiumkatalysators nachgewiesen. Darüber hinaus trugen die im Rahmen dieser Arbeit gewonnenen Erkenntnisse zum Design und dem Bau einer kontinuierlichen Miniplant für die Rhodium-katalysierte Hydroformylierung langkettiger Alkene in TML-Systemen bei. 324 470 375 Verfestigungs- und Schädigungsverhalten von Blechwerkstoffen im ebenen Torsionsversuch The in-plane torsion test is a sheet metal test method for the characterization of plastic behavior under shear loadings. This test has the ability to achieve high strains for the flow curve determination. Furthermore, the specimen is loaded without unwanted edge effects, which is another advantage of this test. However, the in-plane torsion test is rarely used due to the high effort of the available evaluation methods. The aim of this thesis is to develop new experimental and evaluation procedures as well as new applications in order to establish this test in the field of sheet metal characterization. Firstly, two basic evaluation procedures are introduced, namely the post measurement and the continuous measurement of strains. Optical strain measurement is used in both methods. The post measurement is able to determine an entire flow curve by one single measurement of the final deformation state. Thus, the effort of this measurement is low. Especially for ductile materials high strains of up to 1.0 can be achieved. A further extrapolation of the flow curve becomes unnecessary. Using the continuous strain measurement, multiple cyclic stress-strain curves can be extracted very efficiently from one single specimen. By this method cyclic shear curves with different strain amplitudes are determined simultaneously by one turn. For a better understanding of the test basics, relations and influences on the results of the in-plane torsion test are investigated using continuum mechanical analysis and numerical simulation. Closed-form solutions of the displacement and strain distribution are derived for purely elastic and ideal plastic material behavior with two different hardening laws. A modified specimen geometry with round slits is presented in order to identify shear flow curves in a specific material orientation. Thus, “smearing out” the anisotropy over the full circumference can be avoided as compared to the full in-plane torsion specimen. This new specimen is called twin-bridge specimen because it has two shear zones. With this geometry a new shear test is established with comparable results to known shear tests like the Miyauchi-test or the shear test according to ASTM B831. For the characterization of the ideal shear fracture of sheet materials a new specimen is designed. By cutting out a round circular groove from a full torsion specimen, the crack initiation can be realized under ideal shear loadings without deviation. The results show good re-producibility concerning the point of fracture. This can have an impact on the current research in the field of damage characterization and modeling, since the realization of perfect shear fracture for sheet materials has not as yet been possible. The results of this thesis establish the required fundamental knowledge for a more frequent usage of the in-plane torsion test in scientific and industrial applications. The high potential of this test method offers various possibilities in the field of sheet metal characterization and numerical simulation of forming processes. Der ebene Torsionsversuch ist ein Prüfverfahren für Blechwerkstoffe zur Bestimmung der Umformeigenschaften unter Scherbelastungen. Dieser Versuch hat den Vorteil, dass hohe Deformationen messbar sind. Zudem ist die Beanspruchung der Probe frei von störenden Kerbeffekten. Dennoch ist der ebene Torsionsversuch ein bisher selten verwendetes Verfahren, da die verfügbaren Auswertungsmethoden sehr aufwendig sind. Das Ziel der vorliegenden Dissertation ist die Erarbeitung von neuen Prüf- und Auswertungsmethoden zur Etablierung dieses bisher selten genutzten Prüfverfahrens sowie die Erschließung weiterer Anwendungsmöglichkeiten. Im ersten Schritt werden zwei grundlegende Auswertungsmethoden eingeführt, die nachgeschaltete Dehnungsmessung und die kontinuierliche Dehnungsmessung. Beide Methoden basieren auf optischer Messtechnik. Die nachgeschaltete Dehnungsmessung ermöglicht die Ermittlung einer vollständigen Fließkurve durch die alleinige Messung des finalen Deformationszustandes. Hierbei ist der Messaufwand gering. Insbesondere für duktile Werkstoffe können hohe Umformgrade bis 1,0 gemessen werden, sodass eine Extrapolation der Fließkurve nicht mehr notwendig ist. Mithilfe der kontinuierlichen Dehnungsmessung kann auf effiziente Weise eine Vielzahl von zyklischen Spannungs-Dehnungs-Verläufen aus einer einzigen Messung extrahiert werden. Somit sind zyklische Scherkurven mit unterschiedlichen Dehnungsamplituden simultan in einem Versuch ermittelbar. Für ein besseres Grundlagenverständnis werden Zusammenhänge und Einflüsse auf das Ergebnis des ebenen Torsionsversuchs mittels kontinuumsmechanischer Betrachtung und numerischer Simulation analysiert. Geschlossene Zusammenhänge für das Verschiebungs- und Dehnungsfeld werden in Abhängigkeit des anliegenden Drehmoments für elastisches und starrplastisches Werkstoffverhalten mit zwei Verfestigungsansätzen hergeleitet. Um Scherfließkurven in einer isolierten Richtung zu identifizieren, wird eine modifizierte Probengeometrie mit Rundschlitzen eingeführt. Hiermit kann eine Mittelwertbildung bei Anisotropie über den gesamten Umfang wie bei der vollen Torsionsprobe vermieden werden. Diese als Doppelstegprobe bezeichnete Geometrie verfügt über zwei Scherzonen. Es ist ein Scherversuch entstanden, dessen Ergebnisse mit bekannten Scherversuchen wie dem Miyau-chi-Versuch oder der Norm nach ASTM B831 vergleichbar sind. Zur Charakterisierung des idealen Scherversagens ist eine neue Probengeometrie entworfen worden. Durch die Aufbringung einer Rundnut mit runder Profilgeometrie kann Versagen durch Rissbildung unter idealer Scherbelastung ohne Abweichungen erreicht werden. Die Ergebnisse zeigen gute Reproduzierbarkeit hinsichtlich des Versagenszeitpunktes. Dies kann für die aktuelle Forschung im Bereich der Schädigungsmodellierung von großem Interesse sein, da bisher eine Charakterisierung von Blechversagen unter perfekten Scherbedingungen nicht möglich war. Die Ergebnisse dieser Arbeit ermöglichen die notwendige wissenschaftliche und experimentelle Durchdringung des ebenen Torsionsversuchs. Das hohe Potenzial dieses Prüfverfahrens bietet verschiedene Einsatzmöglichkeiten im Bereich der Blechcharakterisierung für die Umformsimulation. 325 528 476 Protein-Semisynthese und mechanistische Studien zum Proteinspleißen mit Hilfe eines gespaltenen Inteins The term intein is used for an internal protein domain, that catalyses its own excision out of a precursor protein and the concomitant linkage of the two flanking sequences, the Nand C-extein, with a native peptide bond. In split inteins, the intein domain is divided into two parts that undergo fragment association followed by protein splicing in trans. The specificity and sequence promiscuity of split inteins make them a generally useful biochemical tool, for example for the preparation of proteins out of two fragments. If the intein is used to ligate a synthetic and a recombinant fragment the splice product represents a semi-synthetic protein. The new approach outlined in this work is based on the artificially split Ssp DnaB mini-intein. The splitting was performed at a variable loop position close to the N-terminus leading to a synthetically accessible N-terminal intein fragment (Int^N) and a recombinantly expressible C-terminal part (Int^C), which are 11 and 143 amino acids in length, respectively. This intein enables the chemo-enzymatic synthesis of N-terminally modified semi-synthetic proteins. The feasibility of the new approach was shown experimentally using two model systems, wherein a synthetic N-extein peptide pentamer, including a 5,6-Carboxyfluorescein moiety, was ligated to the N-terminus of the 12 kD protein thioredoxin and the 31 kD protein ß-lactamase. After 24 h of incubation at 25°C, under native conditions and using a peptide and protein concentration in the micromolar range, the desired splice product could be formed with a maximal yield of approximately 70%. Furthermore, the reaction also proceeded selectively in an E. coli cell lysate. The applicability in such complex mixtures together with the fact, that this intein enables the generation of N-terminally modified semi-synthetic proteins without a necessary incorporation of thioester groups and amino terminal cysteins, are the main advantages compared to Expressed Protein Ligation. For a detailed characterisation of the semi-synthetic intein the minimal sequence requirements of Int^N were evaluated. Measurements of changes in fluorescence anisotropy were carried out to investigate the inherent affinity of both intein fragments. For that purpose an Int^C mutant blocked in protein splicing was used, leading to a dissociation constant of 1.1 µM and a rate constant of complex formation of 16.8 M^-1s^-1. Furthermore, based on an alanine scanning analysis of the Int^N(1-11) sequence, three for the complex association essential hydrophobic residues could be identified (Ile2, Ile8 and Leu10), whereas substitutions at other positions were tolerated. Additionally, the semi-synthetic intein was well suited for further mechanistic studies of the protein splicing mechanism. Intriguingly, a Gly[-1]Ala-substitution of the first amino acid within the N-extein, was revealed to result in thiazoline ring formation involving the catalytic Cys1, likely by aberrant dehydration of an oxythiazolidine-anion intermediate. This finding provides the first experimental evidence for this postulated intermediate during the initial N,S ?? acyl shift. A second interesting side reaction within the splicing mechanism, the formation of a caprolactone, could be induced using an N-methylated amino acid at position [-1] and a serin residue at position [-2]. Further unnatural amino acids were successfully introduced at delicate positions within the synthetic Int^N-fragment as well as the N-extein sequence, and their impact on the spatially and temporally coordinated steps of the splicing mechanism was evaluated. 1 Als Intein wird eine interne Proteindomäne bezeichnet, die sich autoakatalytisch aus einem Vorläuferprotein herausschneiden kann und dabei die beiden flankierenden Domänen, das Nund C-Extein, mittels einer nativen Peptidbindung verknüpft. In einem gespaltenen Intein liegt die Inteindomäne in zwei Fragmente geteilt vor, welche zunächst assoziieren und rekonstituieren müssen, bevor das sogenannte trans-Proteinspleißen katalysiert wird. Aufgrund ihrer Spezifität und ihrer Toleranz gegenüber heterologen Exteinsequenzen stellen gespaltene Intein ein wichtiges biochemisches Werkzeug dar, mit dem z.B. Zielproteine aus zwei Polypeptidsequenzen aufgebaut werden können. Wird das Intein zur Ligation einer synthetischen und einer rekombinanten Polypeptidsequenz verwendet, dann entspricht das Spleißprodukt einem semisynthetischen Protein. Der in dieser Arbeit etablierte neue Ansatz zur Protein-Semisynthese basiert auf dem künstlich gespaltenen Ssp DnaB-Mini-Intein. Die Spaltung wurde in diesem Fall innerhalb einer variablen Schleifenregion nahe am N-Terminus vollzogen, wodurch ein synthetisch zugängliches N-terminales Inteinfragment (Int^N) und ein rekombinant exprimierbares Cterminales Segment (Int^C) entstanden, welche eine Größe von 11 und 143 Aminosäuren umfassen. Dieses neuartig gespaltene Intein ermöglicht die chemoenzymatische Synthese von N-terminal modifizierten semisynthetischen Proteinen. Die Umsetzbarkeit der neuen Methode wurde anhand von zwei Modellproteinen getestet, wobei ein synthetisches Pentapeptid, inklusive einer 5,6-Carboxyfluoresceingruppe, mit dem N-Terminus des 12 kDa großen Proteins Thioredoxin und des 31 kDa großen Proteins ß-Lactamase verknüpft wurde. Nach 24 h Inkubation bei 25°C, unter nativen Bedingungen und in einem mikromolaren Konzentrationsbereich beider Reaktanten, konnte eine maximale Spleißproduktausbeute von ca. 70% erreicht werden. Weiterhin konnte gezeigt werden, dass die Reaktion auch in einem E. coli Zelllysat selektiv ablief. Diese generelle Anwendbarkeit der Methode in komplexen Umgebung stellt zusammen mit der Tatsache, dass beim semisynthetischen trans-Proteinspleißen die Einführung von C-terminalen Thioestergruppen und N-terminalen Cysteinen nicht notwendig ist, den wichtigsten Vorteil im Vergleich zur Expressed Protein Ligation dar. Für eine detaillierte Charakterisierung des semisynthetischen Inteins wurde die minimale Int^N-Sequenzlänge ermittelt. Messungen zur Inteinfragment-Affinität wurden durch die Bestimmung der Fluoreszenz-Anisotropie mit Hilfe einer Int^C-Mutante durchgeführt, deren Fähigkeit zur Spleißproduktbildung durch drei eingeführte Punktmutationen blockiert war. Die ermittelte Dissoziationskonstante betrug 1,1 µM, und die Geschwindigkeitskonstante der Inteinfragment-Assoziation entsprach einem Wert von 16,8 µM^-1s^-1. Mit Hilfe eines systematischen Alanin-Scans der Int^N-Sequenz konnten drei für eine Assoziation essentielle hydrophobe Aminosäuren identifiziert werden (Ile2, Ile8 und Leu10), während Substitutionen an anderen Positionen toleriert wurden. Schließlich konnten mit dem semisynthetischen Intein verschiedene mechanistische Studien durchgeführt werden. So offenbarte die Reaktion eines Gly[-1]Ala-substituierten Peptids die Bildung eines Thiazolinrings, ausgelöst durch eine anormale Dehydrierung des Oxythiazolidin-Anion-Intermediats. Diese Beobachtung stellt den ersten experimentellen Beweis für dieses bislang lediglich postulierte Intermediat des N??S-Acyltransfers dar. Eine zweite interessante Nebenreaktion des Spleißmechanismus, die Bildung eines Caprolactons, konnte mittels einer N-methylierten Aminosäure an Position [-1] und eines Serins an Position [-2] induziert werden. Auch weitere unnatürliche Aminosäurebausteine wurden an interessanten Positionen innerhalb der Int^N- und der N-Exteinsequenz eingeführt und erlaubten eine Analyse der strukturellen Anforderungen der räumlich und zeitlich hoch koordiniert ablaufenden Reaktionsschritte des Proteinspleißens. 326 952 826 Chemical tools for protein analysis: development of an MS-cleavable cross-linker and a new approach for glycopeptide enrichment The technological development in analytical methods, especially in chromatography and mass spectrometry, has allowed a deeper understanding of biological systems at a molecular level. Characterization and quantification of biomolecules and its modifications are crucial for comprehension of the entire biological machinery. However, additional bioanalytical methods are needed to gain more detailed information about protein structure, dynamic protein complexes and low abundant protein modifications. Herein chemical tools are used in addition to well-established shotgun proteomic approaches in order to enhance the knowledge of protein structure and information about glycosylation as a protein modification. Cross-linkers are used as molecular rulers or molecular bridges to connect two amino acid residues at a specific distance via covalent bonds. These tools assist in the characterization of the three-dimensional structure of a protein or of protein complexes. In the first part of this work a new MS-cleavable phosphonate cross-linker was proposed, with the aim to perform a neutral elimination reaction during the tandem MS fragmentation. The new phosphonate cross-linker PXL 14 was synthesized in 3 steps from commercial sources. This linker was evaluated using synthetic peptides. The linkage reaction was optimized by adjusting the buffer system and pH value in order to avoid in-situ chemical cleavage. Distinct fragmentation techniques were applied to observe the linker fragmentation in tandem mass spectrometric experiments. Low-energy HCD fragmentation showed favorable cleavage of the cross-linker bonds instead of the peptide backbone fragmentation. The acryloyl fragment of the Ac-IEAEKGR peptide is the second most intense ion in HCD with 18% NCE. Bovine serum albumin was used as model protein to evaluate PXL in a more complex system. The cross-linker reaction with BSA was monitored using SDS-PAGE. After optimization of conditions for cross-linker reaction and proteolytic digestion, cross-linked peptides were analyzed using LC-MS/MS methods. Manual data analysis allowed the identification of 7 intra-linked peptides, including 2 non-previously reported; 3 loop linked peptides and 8 peptides derived from chemical cleavage. Chemical tools were also developed in this work to improve glycopeptide enrichment in studies of glycan protein modifications. Glycosylation is one of the most common post-translational protein modifications and one of the most complex modifications due to the diversity in the monosaccharides building blocks, the linkage types among those monosaccharides and their extension. Besides micro- and macroheterogeneity, the low abundance of modified peptides after proteolytic protein degradation is a major obstacle for analysis of glycopeptides using the standard proteomic workflows. Therefore, an efficient glycopeptide enrichment strategy is required prior to LC-MS/MS analysis. In this work an improved enrichment methodology is proposed based on the chemical properties of glycopeptides/glycoproteins. A smart cleavable disulfide linker containing hydroxylamine groups was attached on the surface of beads. The linker 40 was synthesized in 6 steps from commercial source prior to the bead surface modification. The hydroxylamine group reacts with aldehydes leading to a covalent oxime bond. Reactive aldehyde groups were introduced on terminal glycan residues, e.g. via selective oxidation of sialic acid using sodium periodate or via enzymatic oxidation of terminal galactose by galactose oxidase. In this approach both, neutral and negatively charged, synthetic glycopeptides were enriched and released under reductive conditions by disulfide bond cleavage. This strategy allowed glycopeptide release independently of glycan nature and peptide backbone. The released glycopeptides presented only a minor modification of the chemical structure in the terminal glycan residue. Moreover, we demonstrated that this approach is compatible with tandem mass tag labeling, which would enable quantification with current available TMT methodologies. Amino acid analysis demonstrated that the enrichment of synthetic sialylated glycopeptide had a yield of 32% and a yield of 40% for a synthetic galactosylated peptide. The enrichment method was also evaluated using model proteins. In this case, fetuin and asialofetuin were applied using different oxidation methods: sodium periodate and GOase oxidation, respectively. For the fetuin sample, a total of 28 unique glycopeptides were identified. Among them, 7 were unique O-glycopeptides and 21 were unique N-glycopeptides. These peptides covered 2 O- and 2 N-glycosylation sites from fetuin A, and 2 O-glycosylation sites from fetuin B. On the other hand, 98 unique glycopeptides were identified for asialofetuin. Herein, 11 unique O-glycopeptides covered 1 fetuin A glycosylation site and 2 fetuin B glycosylation sites. For the N-glycopeptides 87 unique peptides were covered on 2 glycosylation sites from each fetuin A and B. Serum and CSF were used to expand the sample complexity scope of the improved enrichment methodology. In serum a total of 34 proteins and 162 unique sialylated glycopeptides were identified by our methodology. In a CSF sample 32 proteins and 129 unique sialylated glycopeptides were further identified. The N-glycopeptide enrichment method using hydrazine beads is typically used for determination of N-glycosylation sites after removal of the glycans during enzymatic bead release. Clinical CSF samples were here also used for the comparison of N-glycopeptide enrichment, by using this method employing hydrazine beads and enzymatic release with PNGase F and the new method containing a cleavable linker on hydroxylamine beads with chemical and/or enzymatic PNGase F release. A total of 2 963 peptides were identified by samples enriched with hydrazine and hydroxylamine beads together and enzymatic peptide release. While 350 unique glycopeptides were identified from 80 different proteins in the samples enriched by hydroxylamine beads and mild chemical cleavage. Among these identifications, 251 were O-glycopeptide structures and 222 were N-glycopeptide structures. As a conclusion, the new enrichment method allows parallel analysis of O- and N-glycopeptides from both galactosylated and sialylated peptide classes under mild chemical bead release conditions. Besides leaving the glycan structure intact, the method enables labeling with a TMT for quantitative MS detection and is also suitable to be explored in further large scale glycoproteomic studies. Die technische Entwicklung analytischer Methoden, speziell der Chromatographie und Massenspektrometrie erlaubt ein tieferes Verständnis biologischer Systeme auf molekularer Ebene. Charakterisierung und Quantifizierung von Biomolekülen und ihrer Modifikationen sind entscheidend für das Verständnis biologischer Mechanismen. Zusätzliche bioanalytische Methoden sind notwendig um detaillierte Informationen über Proteinstrukturen, dynamische Proteinkomplexe oder Proteinmodifikationen mit geringer Häufigkeit zu erhalten. Hierfür werden chemische Werkzeuge zusammen mit bereits etablierten Shotgun-Ansätzen genutzt, um Erkenntnisse über Proteinstrukturen und Glykosylierungen zu erweitern. Cross-Linker dienen als molekulare Lineale, die zwei Aminosäureseitenketten in einem definierten Abstand kovalent miteinander verknüpfen. Sie sind hilfreich bei der Charakterisierung dreidimensionaler Protein- bzw. Proteinkomplex-Strukturen. Im ersten Teil dieser Arbeit wird ein MS-spaltbarer Phosphonat-Cross-Linker (PXL) vorgestellt, der eine neutrale Eliminierung während der Tandem-MS-Fragmentierung ermöglichen soll. Der neue Phosphonat-Cross-Linker PXL 14 konnte ausgehend von kommerziell erhältlichen Edukten in drei Stufen dargestellt werden. Die Evaluierung wurde an synthetischen Peptiden vorgenommen. Die Optimierung der Reaktionsbedingungen der Verknüpfung erfolgte hinsichtlich des Puffer-Systems und pH-Werts, um eine in-situ-Freisetzung des Cross-Linkers zu vermeiden. Verschiedene Fragmentierungstechniken wurden zur Erforschung der Linker-Fragmentierung in Tandem-Massenspektrometrieexperimenten untersucht. Die gewünschte Abspaltung des Linkers konnte mittels Low-energy-HCD-Fragmentierung realisiert werden ohne dabei das Peptidrückgrat zu beschädigen. Das Acryloyl-Fragment des Ac-IEAEKGR-Peptids ist das zweitintensivste Ion nach HCD-Fragmentierung bei 18% NCE. Als Modellprotein zur Evaluierung der PXL in komplexeren Systemen fungierte Bovines Serumalbumin (BSA). Die Verknüpfung des Cross-Linkers mit BSA wurde mittels SDS-PAGE verfolgt. Nach Optimierung der Bedingungen der Cross-Linker-Kupplung und der proteolytischen Verdauung dienten LC-MS/MS-Methoden zur Analyse der cross-linker-verknüpften Peptide. Die manuelle Datenanalyse erlaubte die Identifizierung von sieben intramolekular verknüpften Peptiden, inklusive zweier bisher nicht dokumentierten; drei schleifen-verknüpften Peptiden und acht Peptiden als Resultat einer chemischen Spaltung. Des Weiteren wurden chemische Methoden zur Verbesserung der Anreicherung von Glykopeptiden zur Untersuchung von Glykosylierungsmodifikationen entwickelt. Die Glykosylierung stellt eine der am häufigsten vorkommenden und auf Grund der hohen Diversität an Monosacchariden und an Möglichkeiten derer Verknüpfung auch komplexesten posttranslationalen Modifikationen von Peptiden dar. Neben der Mikro- und Makroheterogenität stellt einem vor allem die geringe Menge an modifizierten Peptiden nach erfolgtem proteolytischen Abbau in der Analytik von Glykopeptiden mit Hilfe von Standard-Proteomic-Verfahren vor Herausforderungen. Aus diesem Grund ist eine effiziente Strategie zur Anreicherung von Glykopeptiden für LC-MS/MS-Analysen erforderlich. In dieser Arbeit wird eine verbesserte Anreicherungsmethode basierend auf den chemischen Eigenschaften von Glykopeptiden/-proteinen vorgestellt. Ein abspaltbarer Disulfid-Linker mit Hydroxylamin-Funktionen wurde auf der Oberfläche von Beads angebracht. Linker 40 konnte in sechs Stufen ausgehend von kommerziell erhältlichen Edukten dargestellt werden. Über die Hydroxylamin-Gruppen des Linkers können kovalente Verknüpfungen mit den Aldehyd-Funktionen der terminalen Monosacchariden der Glykosylierungsmodifikation unter Ausbildung von Oxim-Bindungen geschlossen werden. Die Einführung dieser Aldehyd-Funktionen kann z.B. mittels selektiver Oxidation von Sialinsäuren mit Natriumperiodat oder enzymatischer Oxidation von terminaler Galactose mit Galactose-Oxidase erreicht werden. Bei diesem Ansatz werden sowohl neutrale als auch negativ geladene, synthetische Glykopeptide angereichert und über die Spaltung der Disulfid-Bindung unter reduktiven Bedingungen freigesetzt. Diese Art der Freisetzung ist unabhängig von der Natur der Glykanstruktur und des Peptidrückgrates. Die freigesetzten Glykopeptide weisen dabei nur eine geringfügige chemische Modifikation in terminaler Position auf. Darüber hinaus konnte gezeigt werden, dass dieser Ansatz für Tandem Mass Tag (TMT) Labeling geeignet ist. Dies würde eine Quantifizierung mit derzeitigen TMT-Methoden ermöglichen. Aminosäureuntersuchungen konnten aufzeigen, dass die Ausbeute der Anreicherung von synthetischen sialylierten Glykopeptiden bei 32% und von synthetischen galactosylierten Glykopeptiden bei 40% liegt. Die Anreicherungsmethode wurde ebenso mit Hilfe von Fetuin und Asialofetuin als Model-Proteinen evaluiert. Für die Oxidation wurde entsprechend Natriumperiodat bzw. Galactose-Oxidase eingesetzt. In der Fetuin-Probe konnten 28 einzigartige Glykopeptide identifiziert werden; darunter sieben O-Glykopeptide und 21 N-Glykopeptide. Diese korrespondieren mit zwei O- und zwei N-Glykosylierungsseiten des Fetuin A und zwei O-Glykosylierungsseiten des Fetuin B. In der Asialofetuin-Probe wurden 98 einzigartige Glykopeptide identifiziert. Die elf O-Glykopeptide korrespondieren mit einer O-Glykosylierungsposition des Fetuin A und zwei O-Glykosylierungsseiten des Fetuin B. Die 87 N-Glykopeptide korrespondieren jeweils mit zwei N-Glykosylierungspositionen des Fetuin A bzw. Fetuin B. Um die Anreicherungsmethode für die Anwendung auf komplexere Systeme untersuchen zu können, wurden Blutserum und CSF als Proben gewählt. Unsere Methode ermöglichte im Blutserum 34 Proteine und 162 einzigartige sialylierte Glykopeptide zu identifizieren. In der CSF-Probe wurden 32 Proteine und 129 einzigartige sialylierte Glykopeptide identifiziert. Die Methode zur Anreicherung von N-Glykopeptiden mittels Hydrazin-Beads wird typischerweise zur Bestimmung von N-Glykosylierungsseiten nach enzymatischer Freisetzung der Oligosaccharide genutzt. Klinische CSF Proben wurden zum Vergleich der N-Glykopeptid-Anreicherung herangezogen; wobei Hydrazin-Beads für enzymatische Freisetzung mittels PNGase F unserer Methode mit abspaltbarem Linker auf Hydroxylamin-Beads für chemische oder enzymatische Abspaltung mit PNGase F gegenübergestellt werden sollten. 2 963 Peptide wurden mit Hilfe der Anreicherung sowohl von Hydrazin- als auch Hydroxylamin-Beads mit enzymatischer Freisetzung identifiziert. Bei Verwendung der Hydroxylamin-Beads in Kombination mit milder, chemischer Freisetzung war eine Identifikation von 350 einzigartigen Glykopeptiden der 80 verschiedenen Proteinen möglich. Unter diesen waren 251 O-Glykopeptidstrukturen und 222 N-Glykopeptidstrukturen zu beobachten. Zusammenfassend ermöglicht die neue Methode, basierend auf der chemischen Freisetzung der Beads unter milden Bedingungen, eine parallele Untersuchung von galactosylierten und/oder sialylierten O- und N-Glykopeptiden. Da die chemische Glykanstruktur nahezu unverändert bleibt, sind TMT Markierungen für quantitative Massenspektrometrie und weiterführende Studien auf dem Gebiet der Glykoproteomics im größeren Maßstab möglich. 327 286 259 Characterization of natural and consolidated stones from Jordan with non-destructive ultrasonic technique and physico-mechanical methods The purpose of this dissertation was to investigate different stone samples (limestone, basalt and marble) from five important archaeological sites in north and northeast Jordan for the purpose of their conservation. This research focused on the use of non-destructive ultrasonic technique as validated by traditional physico-mechanical methods for the study of the weathering of the selected stones and their durability and the evaluation of the effectiveness of consolidation treatments. The selected stones were characterized and the changes in their properties after artificial weathering and consolidation were studied. It was found that the susceptibility of the studied stone samples to salt damage is determined by their petrophysical rather than mechanical properties. In terms of loss of stone material, the damage induced by the crystallization of salt in the stones seems to be dependent on their proportion of micropores and free porosity. Durability estimators for the evaluation of the weathering resistance of stone were consequently developed. The study provided additional evidence that ultrasonic technique is an effective method for estimating the degree of cracking and evaluating the effectiveness of stone consolidation treatments. Ultrasonic velocity seemed to correlate well with the degree of cracking in the stones. This implies that weathering classification schemes, such as those already existed for marble, based on correlation between ultrasonic velocity and increasing porosity can be developed for the studied stones. However, it is necessary to study these correlations for the particular stones in fresh and different weathering conditions. This dissertation recommends the in situ application of ultrasonic technique for the assessment of the weathering condition of Jordanian archaeological stones and for the evaluation and control of consolidation treatments. Ziel dieser Dissertation war es zunächst, verschiedene Steinproben (Kalkstein, Basalt und Marmor) von fünf bedeutenden archäologischen Orten des Nordens und Nordosten Jordaniens zu untersuchen und zu charakterisieren. Die Arbeit legt den Fokus auf die Anwendung von zerstörungsfreier Ultraschall-Technik, die mit den traditionellen physikalisch-mechanischen Methoden ergänzt und verglichen wurde, um die Verwitterung der ausgewählten Steine und ihre Dauerhaftigkeit zu studieren und die Wirksamkeit der Steinfestigungsbehandlungen zu evaluieren. Nach der Charakterisierung der ausgewählten Steinproben wurden die Veränderungen ihrer Eigenschaften nach künstlicher Verwitterung beziehungsweise Festigung studiert. Im Ergebnis stellte sich heraus, dass die Anfälligkeit der untersuchten Steinproben gegen Salzverwitterung eher von ihren petro-physikalischen als von ihren mechanischen Eigenschaften abhängig ist. Hinsichtlich des Verlustes von Steinmaterial scheint der entstehende Schaden durch Salzkristallisierung in den Steinen von ihrem Anteile an Mikroporen und ihrer freien Porosität abzuhängen. So werden basierend auf diesen Ergebnissen Dauerhaftigkeitsparameter für die Evaluierung der Verwitterungsresistanz der Steine entwickelt. Die Arbeit ergab einen zusätzlichen Beleg dafür, dass die Ultraschall-Technik eine wirksame Methode zur Einschätzung des Grades von Rissen und der Evaluierung der Wirksamkeit von Steinfestigungsbehandlung ist. Die Ultraschallgeschwindigkeit scheint gut zu korrelieren mit der Rissdichte in den Steinen. Daraus ergibt sich, dass Skalen zur Klassifizierung von Verwitterung, wie sie bereits für Marmor vorhanden sind, basierend auf der Korrelation zwischen Ultraschallgeschwindigkeit und ansteigender Porosität, für die hier untersuchten Steine entwickelt werden können. Jedoch ist es notwendig, diese Korrelationen an bestimmten Steinen in frischem und in unterschiedlichen verwitterten Zuständen zu studieren. Diese Dissertation empfiehlt die Vor-Ort-Anwendung von Ultraschall-Technik für die Bewertung des Verwitterungszustandes archäologischer Steine Jordaniens und für die Evaluierung und Kontrolle ihrer Festigungsbehandlungen. 328 148 130 Industrie 4.0 und soziale Innovation - Fremde oder Freunde? In accordance with general labour policy consent, a socio-technical design depends on the pros and cons that the realisation of Industry 4.0 (Industrie 4.0) implicates. Thus social innovation is supposed to contribute to the implementation of human-orientated and participatory forms of shaping workplaces. Usually conceptual and theoretical reference points of social innovation are not given enough attention and are not systematically linked with Industry 4.0. This short report offers a critical analysis of Industry 4.0 using a concept of social innovation that has been developed by the Sozialforschungsstelle Dortmund. Taking this perspective into account, it is shown that a technocentric view on Industry 4.0 lacks what a comprehensive concept of innovation can offer, and leads to a narrow understanding of the digital agenda.This debate on Working 4.0 (Arbeiten 4.0) promotes a more profound and comprehensive discussion on the topic. It favours a more advanced development of conceptual alternatives. Einem breiten arbeitspolitischen Konsens zufolge hängt von der konkreten soziotechnischen Gestaltung ab, welche Vor- oder Nachteile die Realisierung von Industrie 4.0 mit sich bringen wird. Soziale Innovationen sollen demnach zur Durchsetzung von humanzentrierten und partizipationsbasierten Formen der Arbeitsgestaltung beitragen. Konzeptionelle und theoretische Bezugspunkte sozialer Innovation werden dabei i.d.R. nur unzureichend zur Kenntnis genommen und nicht systematisch auf Industrie 4.0 bezogen. In der Kurzexpertise erfolgt eine kritische Auseinandersetzung mit Industrie 4.0 aus Perspektive des von der Sozialforschungsstelle Dortmund entwickelten Konzeptes sozialer Innovation. Aus diesem Blickwinkel zeigt sich, dass die technikzentrierte Vision der Industrie 4.0 hinter einen umfassenden Innovationsansatz zurückfällt und zu problematischen Verengungen der Digitalen Agenda führt. Die Debatte um Arbeiten 4.0 setzt hier weitergehende Impulse und verfügt über konzeptionell ausbaufähige Alternativen. 329 62 63 Meta consulting: A new form of knowledge production Eine neue Form der Wissensproduktion? Meta-consulting aims to support clients deal professionally with consulting. The following article will give insight into this still rather unknown form of new knowledge production in the consulting market. Conceptual reflection and empirical findings will show the particular roles and functions that meta-consulting can assume and in which realms its ideas can go awry. Die Meta-Beratung verfolgt das Ziel, Klienten bei ihrem professionellen Umgang mit Beratung zu unterstützen. Der folgende Beitrag beleuchtet diese noch recht unbekannte Form der neuen Wissensproduktion im Beratungsmarkt. Mit Rückgriff auf konzeptionelle Überlegungen und empirische Beispiele wird aufgezeigt, welche besonderen Rollen und Funktionen die Meta-Beratung übernehmen kann und in welchen Feldern ihre Idee in Schiefl agen geraten kann. 330 453 375 Fluorescent sensors for the small GTPase switch Small GTPases regulate a variety of highly dynamic biological processes ranging from signal transduction, cytoskeleton rearrangement and gene expression to nuclear and vesicular transport. They exert their regulatory role by acting as molecular switches, cycling between an active GTP-bound and an inactive GDP bound form. The switching between the active and the inactive state involves distinct conformational changes in the GTPase structure and is tightly regulated by guanine nucleotide exchange factors (GEFs) and GTPase-activating proteins (GAPs). Most small GTPases exhibit a characteristic subcellular localization and cycle between different cellular compartments. This spatial cycle constitutes an additional level of regulation. Due to their key role in highly dynamic processes, GTPases have been a popular target for the development of biosensors that provide insight into the spatiotemporal aspects of their functioning. Most GTPase sensors rely on an indirect signal read out, generated through binding of an engineered effector domain to the activated, GTP-bound GTPase. However, the versatility of this approach is limited. It requires a suitable effector domain, which has to be identified and optimized for each target GTPase. Moreover, these conventional sensor designs often involve modification of the protein’s termini, affecting native GTPase functioning and localization. In the course of this thesis a new GTPase activation sensor that avoids the aforementioned drawbacks of conventional designs was established. By employing Förster energy transfer (FRET) between a N-terminal fluorescent protein and an organic dye, the intrinsic conformational change of the GTPase-fold can be used as the primary indicator for GTPase activation. The sensor design was first applied to Rab1 and later extended to KRas. Retained native behavior and sensitivity of Rab1 in the sensor constructs was assessed by monitoring their interaction with GEFs, GAPs and effector proteins. In cellular studies, using fluorescence lifetime imaging microscopy (FLIM), the ratio of active to inactive Rab1 in the cytoplasm and on the Golgi was quantified. Rab1 was found to be mostly active in the cytoplasm and largely inactive when localized on the Golgi, suggesting that the Golgi organelle serves as the terminal of the Rab1 functional cycle. The KRas sensor revealed polarized KRas activity at the plasma membrane with lower KRas activity at the cell edges. Upon EGF-stimulation the sensor indicated a global increase in activated KRas. The work based on the GTPase activation sensor in this thesis is complemented with an analysis of the dynamics of Rab1 trafficking between the cytoplasmic pool and the Golgi organelle. Using fluorescence recovery after photobleaching (FRAP) and photoactivation experiments, the effect of impaired Rab1 function on Rab1’s spatial cycling was assessed. These experiments indicate, that the ability to cycle between its active and inactive state is essential for sustained Rab1 trafficking between cytoplasm and Golgi. Kleine GTPasen regulieren eine Vielzahl an hoch dynamischen Prozessen, welche von Signaltransduktion und Cytoskelettorganisation bis zum nuklearen und vesikulären Transport reichen. Sie erfüllen ihre regulatorische Rolle indem Sie als molekulare Schalter agieren, die zwischen einer aktiven, GTP-gebunden Form und einer inaktiven, GDP-gebundenen Form hin- und herwechseln. Der Wechsel zwischen der aktiven und der inaktiven Form geht mit einer Konformationsänderung der Proteinstruktur einher und wird durch GTPase-aktivierende Proteine (GAPs) und Guaninnukleotidaustauschfaktoren (GEFs) gesteuert. Zudem weisen die meisten GTPasen eine charakteristische subzelluläre Lokalisation auf und zirkulieren zwischen verschiedenen Zellkompartimenten. Aufgrund ihrer Schlüsselrolle in komplexen zellulären Vorgängen sind GTPasen ein beliebtes Ziel für die Entwicklung von Biosensoren, die einen Einblick in die zeitlichen und räumlichen Aspekte ihrer Aktivität ermöglichen. Die meisten der bisher etablieren Sensoren basieren auf der spezifischen Bindung einer modifizierten Effektordomäne an die aktivierte GTPase. Ein Nachteil dieser Strategie ist, dass zunächst für jede GTPase eine passende Effektordomäne identifiziert und optimiert werden muss und daher einmal etablierte Sensoren nicht einfach auf andere GTPasen übertragen werden können. Zudem erfordern konventionelle Sensorkonstrukte häufig die Modifikation der Proteintermini, was die native Lokalisation der GTPase beeinträchtigen kann. Im Rahmen dieser Arbeit wurde ein neuartiger Ansatz zur Entwicklung von GTPase-Sensoren verfolgt, der auf alle GTPasen übertragbar ist und nur eine minimale Modifikation der Proteine erfordert. Der Sensor basiert auf einem intramolekularen Förster-Resonanzenergietransfer (FRET) Paar, das es ermöglicht die Konformationsänderung der GTPase im Zuge des Nukleotidaustausches direkt auszulesen. Das Sensordesign wurde zunächst auf Rab1 und später auf KRas angewandt. Der Erhalt der nativen Funktionalität von Rab1 im Sensorkonstrukt wurde zunächst durch die eingehende Charakterisierung der Interaktion mit dem GEF DrrA, dem GAP TBC1D20 und den Effektorproteinen OCRL und LidA überprüft. Anschließend wurde in Zellstudien der Anteil an aktivem Rab1 im Cytoplasma und am Golgi quantifiziert. Der für KRas entwickelte Sensor offenbarte ein polarisiertes Aktivitätsprofil von KRas in COS7 Zellen mit geringerer Aktivität an der freien Zellkante. Zudem zeigte der KRas Sensor, dass EGF Stimulation zu einem globalen Anstieg der intrazellulären KRas-Aktivität führt. Ergänzend wurde der dynamische Austausch von Rab1 zwischen Cytoplasma und Golgi durch Fluorescence Recovery after Photobleaching (FRAP)-Studien und Experimente mit photoaktivierbarem GFP quantifiziert. Die Versuche weisen darauf hin, dass der Übergang von Rab1 zwischen Cytoplasma und Golgimembran eng mit der Fähigkeit verknüpft ist zwischen aktivem und inaktivem Zustand zu wechseln. 331 128 110 New contributions to spatial partitioning and parallel global illumination algorithms This thesis resides around the interface of two disciplines in computer science: computer graphics (global illumination) and parallel computing (dynamic partitioning). On the one hand the hierarchical radiosity algorithm (HRA) - a famous and efficient global illumination algorithm - is examined with respect to its capability of being parallelized. On the other hand a dynamic orthogonal recursive bisection tool for the dynamic partitioning of spatially mapped tasks is developped and analyzed theoretically and experimentally. The HRA is a special instance of algorithms that can be formulated as a collection of spatially mapped tasks. As a proof of practicability of our tool we apply the tool to the HRA and observe a well scalable behaviour and useful speedup values. Diese Dissertation ist an der Schnittstelle zweier Disziplinen der Informatik angesiedelt: Computergrafik (Globale Beleuchtung) und Paralleles Rechnen (Dynamisches Partitionieren). Einerseits wird der Hierarchische Radiosity Algorithmus (HRA) - ein berühmter und effizienter Algorithmus zur globalen Beleuchtungssimulation - bzgl. seiner Parallelisierungsfähigkeit untersucht. Andererseits wird ein Werkzeug aus der Gattung der orthogonalen rekursiven Zweiteilungsverfahren zur dynamischen Partitionierung räumlich abgebildeter Aufgaben entwickelt sowie theoretisch und experimentell analysiert. Der HRA ist eine spezielle Instanz von Algorithmen, die als eine Ansammlung von räumlich abgebildeten Aufgaben formuliert werden können. Als Beweis der Praktikabilität unseres Werkzeugs wenden wir das Werkzeug auf den HRA an und beobachten ein gut skalierbares Verhalten und nützliche Werte bzgl. der Steigerung der Berechnungsgeschwindigkeit. 332 265 264 Synthese und Evaluierung stabilisierter Bindungsepitope zur Adressierung kleiner GTPasen Small GTPases work as molecular switches inside cells and play a key role in the control of numerous crucial cellular processes. The aberrant function of small GTPases has therefore been associated with a variety of different diseases. However, the direct targeting of small GTPases by means of conventional small molecular approaches has turned out to be extremely challenging as GTPase regulation and signaling is mediated by shallow and extended protein‒protein-interaction surfaces. In this thesis stabilized peptide binding epitopes derived from protein interaction sites of natural interaction partners were explored as modulators of GTPase signaling. Based on structural data of GTPase‒protein complexes suitable peptide sequences were selected and chemically modified. The first part of this thesis explored this strategy for Ras proteins, the most prominent subfamily of small GTPases. Based on an α-helix of the nucleotide exchange factor SOS a small library of hydrocarbon stapled peptides was generated, while a c-Raf derived β-hairpin was stabilized using different types of cross-links. However, none of the peptide derivative showed sufficient target affinity, probably due to very poor affinities of the corresponding wild type sequences. In the second part of the thesis the same approach was applied to Rab proteins, the largest subfamily of small GTPases. A library of hydrocarbon stapled peptides was designed based on a variety α-helical binding epitopes from different Rab interaction partners. These peptides showed significantly increased affinities. Though no influence on the GEF-catalyzed nucleotide exchange was observed, one of the stapled peptides binds selectively to activated Rab8a and inhibits a Rab8a‒effector-interaction in vitro. Target affinity was further improved by variation of the stapling architecture. Kleine GTPasen dienen als molekulare Schalter bei der Kontrolle zahlreicher wichtiger zellulärer Prozesse. Die fehlerhafte Funktion kleiner GTPasen steht daher in Verbindung mit der Entstehung und Entwicklung diverser Erkrankungen. Allerdings konnte diese Proteinklasse mit konventionellen Methoden nur äußerst schwer direkt adressiert werden, da ihre Regulierung und biologische Signalwirkung über ausgedehnte und flache Protein‒Protein-Interaktionen (PPIs) vermittelt werden. Um Verbindungen zu generieren, die an kleine GTPasen binden und potentiell ihre Signalwirkung modulieren können, wurden deshalb im Rahmen dieser Arbeit Bindungsepitope natürlicher Interaktionspartner konformativ stabilisiert. Auf Basis struktureller Daten von GTPase‒Protein-Komplexen wurden dazu geeignete Peptidsequenzen identifiziert und chemisch modifiziert. Im ersten Teil der Arbeit wurden Ras-Proteine, die prominenteste Unterfamilie kleiner GTPasen, adressiert. Basierend auf einem α-helikalen Bindungsmotiv des Nukleotidaustauschfaktors SOS wurden Peptide mit α-methylierter Kohlenwasserstoffverbrückung (hydrocarbon stapled peptides) entwickelt, während eine vom Effektor c-Raf abgeleitete β-Haarnadel mittels unterschiedlicher Verbrückungsstrategien stabilisiert wurde. Aufgrund der sehr geringen Affinität der Ausgangssequenzen wurden jedoch keine Derivate erhalten, die für eine Anwendung als PPI-Inhibitoren geeignet wären. Im zweiten Teil der Arbeit wurde in einer breit angelegten Machbarkeitsstudie eine analoge Strategie für die größte Unterfamilie kleiner GTPasen, sog. Rab-Proteine, verfolgt. Ausgehend von diversen α-helikalen Bindungsmotiven wurde eine Bibliothek von stapled peptides generiert, die sich im Vergleich zu den Ausgangssequenzen durch deutlich gesteigerte Affinitäten auszeichneten. Obgleich die Peptide keinen Einfluss auf die GEF-vermittelte Nukleotidaustauschrate von Rab-GTPasen zeigten, konnte ein Peptid identifiziert werden, das selektiv an die aktivierte Form von Rab8a bindet und in der Lage ist, eine Rab‒Effektor-Wechselwirkung in vitro zu inhibieren. Abschließend konnte durch Variation der Verbrückungsarchitektur die Affinität dieses Peptids weiter gesteigert werden. 333 294 266 Strukturelle und funktionelle Untersuchungen des photophoben Rezeptor/Transducer-Komplexes aus Natronobacterium pharaonis Sensory Rhodopsin II from the archaebacterium Natronobacterium pharaonis (NpSRII) is responsible for the photophobic response of the bacterium to blue and green light. This photoreceptor forms a 2:2-complex in the membrane with another membrane-protein, the transducer NpHtrII, which shows strong functional and structural homologies to the eubacterial chemoreceptors. After light induction a signal is transferred from NpSRII to NpHtrII, which transmits this information to the coupled signal-transduction cascade. The mechanisms underlying this process were studied using the methods of laserflash photolysis, EPR-spectroscopy on spin-labeled proteins and X-Ray-Crystallography. Applying the method of time-resolved EPR-measurements the kinetics of the formation of the active receptor state were resolved. The timecourse of this process correlates with a specific transition in the so called photocycle of the receptor molecule, which is not coupled to a transprotonation in the molecule as it was postulated up to date. On the basis of structural data obtained by EPR-spectroscopy a model for the transmembrane part of the receptor/transducer complex was developed, leading to a more refined model for the mechanism of signal transfer between the molecules. Additionally the transmembrane part of this complex was successfully crystallized in the so called lipidic cubic phase and the structure was solved by X-ray analysis. Herewith the X-ray structure of a complex of membrane proteins was resolved for the first time. The obtained structural data was used for further refinement of the model for the signalling mechanism. It was postulated on the basis of this data, that by the recently shown outward tilt of the receptor helix F a screw-like motion of the second transducer helix is induced. An additional Helix succeeding this transducer-helix, oriented parallel to the membrane, was identified, leading to a mechanism in which it acts as a lever-arm to amplify the observed signal. Das sensorische Rhodopsin II aus dem Archaebakterium Natronobakterium pharaonis (NpSRII) ist verantwortlich für die photophobe Reaktion des Bakteriums auf blaues und grünes Licht. Dieser Photorezeptor bildet in der Membran einen 2:2-Komplex mit einem anderen Membranprotein, dem Transducer NpHtrII, der grosse strukturelle und funktionelle Homologien zu den eubakteriellen Chemorezeptoren aufweist. Nach Lichtanregung übeträgt das NpSRII ein Signal auf das NpHtrII, welches diese Information an die gekoppelte Signaltransduktionskaskade im Inneren der Zelle weiterleitet. Die diesem Prozess zugrundeliegenden Mechanismen wurden mit den Methoden der Lichtblitz-Induzierten zeitaufgelösten Absorptionsspektroskopie, der ESR-Spektroskopie von spinmarkierten Proteinen sowie der Röntgenkristallstrukturanalyse untersucht. Mittels zeitaufgelöster ESR-Spektroskopie konnte die Kinetik der Bildung des aktivierten Rezeptorzustandes ermittelt werden. Diese korreliert mit einem Übergang im sogenannten Photozyklus des Rezeptormoleküls, welcher nicht mit einer Transprotonierung innerhalb des Proteins gekoppelt ist, wie bisher angenommen. Auf der Grundlage von Strukturinformationen, welche ESR-Spektroskopisch gewonnen wurden, konnte zudem ein Modell des transmembranen Bereiches des Rezeptor/Transducer-Komplexes erstellt werden, welches weitere Aufschlüsse bezüglich des Mechanismus der Signalübertragung zwischen den beiden Proteinen erlaubte. Zudem gelang es, diesen Bereich des Komplexes auch für die Röntgenstrukturanalyse zugänglich zu machen. Mittels der Methode der Kristallisation in der sogenannten kubischen Lipidphase gelang es damit erstmals die Kristall-Struktur eines Komplexes von Membran-Proteinen aufzuklären. Durch die so gewonnenen Struktur-Daten konnte das Modell des Signalübertragungsmechanismus verfeinert werden. Anhand der vorliegenden Ergebnisse wird davon ausgegangen, dass die bereits zuvor postulierte Ausklappbewegung der Rezeptor-Helix F eine Schraubenbewegung der zweiten Transducer-Helix induziert. Im, sich dieser Transducer-Helix anschliessenden, Linker-Bereich wurde eine parallel zur Zellmembran verlaufende Helix identifiziert, welche über einen denkbaren Hebelarmmechanismus zu einer Verstärkung des Signals führt. 334 651 563 Antibacterial secondary metabolites from four endophytic fungi, Eupenicillium sp., Diaporthe sp., Fusarium decemcellulare and Alternaria sp. Endophytes are microorganisms that colonize living, internal tissues of host plants for at least a part of their life cycle without causing any immediate, visible manifestation of disease. Endophytic microorganisms as a promising source of antibacterial natural products have attracted considerable attention. The main objective of this study was isolation, identification and antibacterial evaluation of secondary metabolites from endophytic fungi harbored in Chinese medicinal plants Xanthium sibiricum, Mahonia fortunei, and Lonicera japonica, which have been used in Traditional Chinese Medicine (TCM) for treating bacterial infection-related ailments. An endophyte, Eupenicillium sp. LG41 was isolated from the root of X. sibiricum. Twenty-two secondary metabolites including six decalin motif-containing compounds (five new) (1-6), two new sirenin derivatives (7 and 8), three pigments (one new) (9-11), eight paraconic acids and alkylitaconic acids (three new natural products) (12, 14, 16, 19, and 21-24), and three other known compounds (25-27), were isolated from the rice, PDB or modified PDB medium using the OSMAC approach. Four methylated derivatives (13, 15, 17, and 20) and an isomerization product (18) of paraconic acids were obtained for structure-activity relationship (SAR) analysis. The endophytic fungus Diaporthe sp. LG23 which was isolated from the leaves of M. fortunei collected from Shanghai, China, produced twelve metabolites including a novel tetracyclic triterpenoid with an aromatic B-ring system (28), seven biosynthetically related known steroids (29-35), together with four aromatic or glycosylated compounds (one new) (36-39). Further isolation and identification of endophytic fungi from M. fortunei (stem) collected from a different location, Guangdong, China, afforded an endophyte, Fusarium decemcellulare LG53. Chemical investigation led to the identification of eight compounds: three new cyclic pentapeptides (40-42), two cyclic lipopeptides (one new) (43 and 44), a new pyrone derivative (45), a known xanthone derivative (46), and a reported triterpenoid (47). Alternaria sp. LG19 was derived from the leaves of L. japonica. It was discovered to produce two aromatic metabolites (48 and 53), four well-known Alternaria mycotoxins including altenuene (49), isoaltenuene (50), alternariol (51) and altertoxin I (52), as well as a dicarboxylic acid (54). Altogether, forty-nine compounds were isolated from the above four endophytic fungi and five semi-synthetic derivatives were experimentally produced. Among the isolated compounds, fifteen compounds have new structures and three are new natural products which were reported as synthetic products in the literature. Their planar and relative structures were determined by the interpretation of spectroscopic data, such as IR, UV, HRMSn and NMR, and/or the single crystal X-ray diffraction study, and/or 13C NMR calculation. Their absolute configurations were deduced by one or more of following methods, ECD and optical rotation data, ECD and ORD calculations, Marfey’s method, and the single crystal X-ray diffraction study with a Cu-Kα radiation. The antibacterial efficacies of new compounds were investigated against several Gram-positive and Gram-negative bacteria obtained as clinical or environmental strains. For decalin-containing metabolites, eupenicinicol B (3) had the same efficacy as that of gentamicin against clinically relevant bacterium Staphylococcus aureus at the concentration of 1.0 µg/mL, while eupenicinicol D (5) was more active than 3 with an MIC value of 0.1 µg/mL. These data support the notion that altering the substitution at C-11 could drastically increase the inhibitory activity. The paraconic acid (2S,3R,4S)-4-methyl-5-oxo-2-pentyl-tetrahydro-furan-3-carboxylic acid (12) was discovered to only inhibit tested Acinetobacter spp., especially the multi-drug resistant strain Acinetobacter baumannii. The above data indicated a genus-specific antibacterial compound with a preferred stereochemical configuration. The novel tetracyclic triterpenoid 19-nor-lanosta-5(10),6,8,24-tetraene-1α,3β,12β,22S-tetraol (28) showed pronounced antibacterial efficacy against all the tested organisms, especially against the clinical isolates Streptococcus pyogenes and Pseudomonas aeruginosa. 5 and 28 also demonstrated marked cytotoxicity against human acute monocytic leukemia cell line (THP-1), while 12 exhibited no cytotoxic activity. The results reported in this thesis provide several antibacterial secondary metabolites worthy of further investigation, especially the paraconic acid (12, termed pacbactin), underlining the potential of endophytic fungi as a source of diverse antibiotics. Endophyten sind Mikroorganismen, die lebende innere Gewebe von Wirtspflanzen für zumindest einen Teil des Lebenszyklus besiedeln, ohne sichtbare Erkrankungen auszulösen. Endophytische Mikroorganismen haben beträchtliche Aufmerksamkeit als eine vielversprechende Quelle für antibakterielle Naturprodukte erregt. Das Ziel dieser Forschung war die Isolierung, Identifizierung, und antibakterielle Bewertung der Sekundärmetaboliten endophytischer Pilze aus den chinesischen Heilpflanzen Xanthium sibiricum, Mahonia fortunei und Lonicera japonica, welche in der traditionellen chinesischen Medizin (TCM) zur Behandlung von bakteriellen Infektionen verwendet werden. Ein Endophyt, Eupenicillium sp. LG41 wurde aus der Wurzel von X. sibiricum isoliert. 22 Sekundärmetaboliten, darunter sechs Decalin Motiv-enthaltende Verbindungen (fünf neu) (1-6), zwei neue Sirenin-Derivate (7 und 8), drei Pigmente (ein neues) (9-11), acht Paraconsäuren und Alkylitaconsäuren (drei neue Naturprodukte) (12, 14, 16, 19 und 21-24), und drei weitere bekannte Verbindungen (25-27), wurden aus Kultivierung mit Reis, PDB oder modifiziertem PDB Medium unter Verwendung des OSMAC-Ansatzes isoliert. Vier methylierte Derivate (13, 15, 17 und 20) und ein Isomerisierungsprodukt (18) der Paraconsäure wurden zur Struktur-Aktivitäts-Beziehungs (SAR) -Analyse erhaltet. Der endophytische Pilz Diaporthe sp. LG23, der aus den Blättern von M. fortunei aus Shanghai, China isoliert wurde, produzierte zwölf Metaboliten einschließlich eines neuartigen tetracyclischen Triterpens mit einem aromatischen B-Ringsystem (28), sieben biosynthetisch verwandte und bekannte Steroide (29-35) zusammen mit vier aromatischen oder glycosylierten Verbindungen (eine neu) (36-39). Des Weiteren wurde der endophytische Pilz Fusarium decemcellulare LG53 aus M. fortunei (Stamm) von Guangdong, China isoliert. Chemische Untersuchungen führten zur Identifizierung von achten Verbindungen: drei neue cyclische Pentapeptide (40-42), zwei zyklische Lipopeptide (eins neu) (43 und 44), ein neues Pyron-Derivat (45), ein bekanntes Xanthon-Derivat (46) und ein Triterpenoid (47). Alternaria sp. LG19 wurde aus den Blättern von L. japonica isoliert. Es wurde gezeigt, dass dieser Endophyt zwei aromatische Metaboliten (48 und 53), vier bekannte Alternaria-Mykotoxine einschließlich Altenuen (49), Isoaltenuen (50), Alternariol (51) und Altertoxin I (52), sowie eine Dicarbonsäure produziert (54). Insgesamt wurden 49 Verbindungen aus den genannten endophytischen Pilzen isoliert und fünf halbsynthetische Derivate experimentell hergestellt. Unter den isolierten Verbindungen besitzen 15 Verbindungen neue Strukturen und drei Stoffe konnten als Naturprodukte identifiziert werden, die bisher als synthetische Produkte in der Literatur berichtet wurden. Ihre relativen Strukturen wurden durch die Auswertung spektroskopischer Daten, wie beispielsweise IR, UV, NMR und HRMSn, Einkristall-Röntgenstrukturanalyse und/oder 13C-NMR-Berechnung bestimmt. Ihre absoluten Konfigurationen wurden durch eine oder mehrere Verfahren wie ECD und Drehwinkel, ECD und ORD Berechnungen, Marfey-Analyse und Einkristall-Röntgenbeugungsanalyse mit Cu-Kα-Strahlung bestimmt. Die antibakterielle Aktivität der neuen Verbindungen wurden für verschiedene Gram-positive und Gram-negative Bakterien die als klinische oder Wild-Stämme gelten untersucht. Der Decalin-haltige Metabolit Eupenicinicol B (3) hatte die gleiche Wirkung wie Gentamicin gegen das Bakterium Staphylococcus aureus in einer Konzentration von 1,0 µg/mL, während Eupenicinicol D (5) mit einem MIC-Wert von 0,1 µg/mL aktiver war als 3. Diese Daten unterstützen die Vorstellung, dass eine Änderung der Substitution an C-11 die inhibitorische Aktivität drastisch erhöht. Die Paraconsäure (2S,3R,4S)-4-methyl-5-oxo-2-pentyl-tetrahydro-furan-3-carbonsäure (12) konnte Acinetobacter spp., insbesondere den resistenten Stamm Acinetobacter baumannii, hemmen. Die Ergebnisse zeigen eine gattungsspezifische antibakterielle Verbindung mit einer bevorzugten stereochemischen Konfiguration. Das neuartige tetracyclische Triterpenoid 19-Nor-Lanostan-5(10),6,8,24-tetraen-1α,3β,12β,22S-Tetraol (28) zeigte eine ausgeprägte antibakterielle Wirksamkeit gegen alle getesteten Organismen, vor allem gegen die klinisch-relevanten Srämme Streptococcus pyogenes und Pseudomonas aeruginosa. Die Stoffe 5 und 28 zeigten zusätzlich deutliche Zytotoxizität gegen die menschliche akute monozytäre Leukämie-Zelllinie (THP-1), während 12 keine zytotoxische Aktivität besaß. Die in dieser Arbeit berichteten und strukturell aufgeklärten antibakteriellen Sekundärmetaboliten sollten weitergehend untersucht werden. Insbesondere die Paraconsäure (12, pacbactin) unterstreicht das Potential endophytischer Pilze als Quelle für Antibiotika. 335 367 334 Expanding the scope of integral equation-based solvation theory Implicit solvation models are used to predict and to understand various properties of solutions within feasible time scales. But common implicit approaches ignore the granularity of the solvent and fail to describe substantial directional interactions like hydrogen bonds. A different way to calculate various properties of solvents without that retains this features is presented in this work, the reference interaction site model (RISM). Thereby the solvent is characterized by its pair distribution function, which is a measure for the near-order of the solvent particles. Furthermore the pair distribution functions are connected within the RISM approach with the free energy of solvation. Combining the RISM approach with quantummechanical precision for the solute leads to the so-called embedded cluster reference interaction site model, EC-RISM. This is achieved by application of a self-consistent approach for both parts that are connected with a cluster of embedded point charges, which describes the solvent-solute interaction. By now the EC-RISM methodology was only applied for studies of free energies and related subjects of dipolar, mostly aqueous solutions. The applicability of EC-RISM for different properties of solutions as well as for nondipolar solvents was so far not ensured in the past. Here, two important aspects are in the focus; on the one hand, NMR chemical shifts are calculated to test whether the EC-RISM approach properly describes the solvent influence on the wave function of the solute and to test the wave function itself. On the other hand benzene and hexafluorobenzene models are developed to research if these complex and very similar solvents are distinguishable with integral equation theories like RISM. Furthermore these models are applied for the investigation of a chemical reaction that shows a stereoselectivity enhancement that is caused by the application of hexafluorobenzene compared to benzene. These investigations show that EC-RISM systematically improves the chemical shifts in aqueous solutions and therefore displays the adequacy of the corresponding wave function. Additionally it is confirmed that benzene and hexafluorobenzene are properly described and that even the stereoselectivity of the previously mentioned chemical reaction is correctly predicted. Thereby the different solvent influences are separated, analyzed, considered and discussed, whereas the relevance of dispersive and multipolar parts is elucidated. Implizite Lösungsmittelmodelle werden verwendet, um die Eigenschaften von Lösungen mit realisierbarem Rechenaufwand vorauszusagen und zu verstehen. Viele dieser impliziten Lösungsmittelmodelle ignorieren jedoch die Granularität des Lösungsmittels und scheitern an der Beschreibung wichtiger gerichteter Wechselwirkungen, wie z. B. Wasserstoffbrücken. Einen Weg zur Beschreibung verschiedenster Lösungsmitteleigenschaften, der die Merkmale der Lösungsmittelmoleküle nicht vernachlässigt, ermöglicht das Reference Interaction Site Model (RISM). Hierbei wird das Lösungsmittel über seine Paarverteilungsfunktion charakterisiert. Diese stellt ein Maß für die Nahordnung der Lösungsmittelteilchen dar und ist im Rahmen des RISM-Ansatzes verbunden mit der freien Solvatationsenergie. Eine Kombination des RISM-Modells mit quantenmechanischer Präzision für die gelöste Substanz führt zu dem so genannten Embedded Cluster Reference Interaction Site Model, EC-RISM. Diese Kombination wird durch die Anwendung eines selbstkonsistenten Ansatzes, bei dem die Wechselwirkung zwischen dem Solvens und der gelösten Substanz durch eingebettete Punktladungen beschrieben wird, erreicht. Bisher wurde die EC-RISM-Methodik nur für Studien von freien Energien und verwandten Größen von dipolaren, hauptsächlich wässrigen Lösungen, verwendet. Die Anwendbarkeit von EC-RISM auf andere Eigenschaften von Lösungen sowie für nicht dipolare Lösungsmittel wurde bisher nicht sichergestellt. Daher stehen im Folgenden zwei Aspekte im Fokus der Arbeit. Einerseits werden chemische NMR-Verschiebungen berechnet, mit denen getestet wird, ob der Einfluss des Solvens auf die Wellenfunktion des gelösten Teilchens geeignet beschrieben wird und um die Wellenfunktion selbst zu überprüfen. Andererseits werden Benzol- und Hexafluorbenzolmodelle entwickelt um zu erforschen, ob diese komplexen, aber ähnlichen Lösungsmittel mit Hilfe von Integralgleichungsmethoden wie RISM unterscheidbar sind. Anschließend werden diese Modelle verwendet, um eine chemische Reaktion zu untersuchen, bei der eine Steigerung der Stereoselektivität durch den Einsatz von Hexafluorbenzol im Vergleich mit Benzol ausgelöst wird. Die Ergebnisse der Untersuchungen zeigen, dass die Anwendung von EC-RISM die chemische Verschiebung in wässriger Lösung systematisch verbessert und somit auch eine plausible Wellenfunktion wiedergibt. Weiterhin wird bestätigt, dass sich Lösungen in Benzol und Hexafluorbenzol adäquat beschreiben lassen und sogar Stereoselektivitätsvoraussagen in Übereinstimmung mit Experimenten möglich sind. Hierbei können verschiedenste Lösungsmitteleinflüsse separiert und analysiert sowie betrachtet und diskutiert werden, wobei die Bedeutung sowohl dispersiver als auch multipolarer Wechselwirkungsanteile verdeutlicht wird. 336 205 192 Ensembles, altered dispersion relations and CPT violation in neutrino oscillations and charged lepton decays This thesis introduces a description of altered dispersion relations and CPT-violating effects in neutrino oscillations and charged lepton decays. Such phenomena can arise, e.g., in the early Universe and models with extra spatial dimensions. We develop a perturbation theory for the coherence vector description of neutrino oscillations and propose a unified approach to adiabatic and nonadiabatic two-flavor oscillations in neutrino ensembles with finite temperature and generic potential terms. We neglect ensemble decoherence and solve the associated quantum kinetic equations. Eventually, we apply the methodology of said perturbation theory to neutrino ensembles in the presence of decohering interactions. Moreover, we develop a nonadiabatic perturbation theory for oscillations involving an arbitrary number of neutrinos and antineutrinos. We include lepton-number violation in the approach and treat it as a small perturbation parameter. We find that small lepton-number violation in vacuo can be enhanced in CP-odd matter and apply the formalism to the twogeneration case. Finally, we investigate low-energy CPT-violating modifications in charged current weak interactions. We analyze muon and antimuon decays and, using the difference in their lifetimes, put bounds on the CPT-violating parameters. We also elaborate on muon and antimuon differential decay rates. Die vorliegende Dissertation behandelt eine Beschreibung veränderter Dispersionsrelationen und CPT-verletzender Effekte in Neutrinooszillationen und dem Zerfall geladener Leptonen. Solche Phänomene können unter anderem im frühen Universum und in Modellen mit zusätzlichen Raumzeitdimensionen auftreten. Wir entwickeln eine Störungstheorie für den Kohärenzvektorformalismus von Neutrinooszillationen und einen vereinheitlichten Zugang für adiabatische und nichtadiabatische Neutrinooszillationen zwischen zwei Generationen in Neutrinoensembles mit endlicher Temperatur und generischen Potenzialen. Dabei vernachlässigen wir Dekohärenz des Ensembles und lösen die quantenkinetischen Gleichungen. Schließlich wenden wir die Methodik der Störungstheorie auf Neutrinoensembles an, in denen Dekohärenz auftritt. Darüberhinaus entwickeln wir eine nichtadiabatische Störungstheorie für Oszillationen zwischen einer beliebigen Anzahl von Neutrinos und Antineutrinos. Wir beziehen dabei Verletzung der Leptonzahl mit ein und behandeln diese als kleinen Störungsparameter. Es zeigt sich, dass eine kleine Leptonzahlverletzung im Vakuum verstärkt werden kann in Materie, welche die CP-Symmetrie bricht. Wir untersuchen weiterhin den Fall von Oszillationen zwischen zwei Neutrinogenerationen. Schließlich betrachten wir Modifikationen von geladenen schwachen Strömen durch Verletzung der CPT-Symmetrie bei niedrigen Energien. Wir untersuchen Zerfälle von Myonen und Antimyonen und verwenden die Vorhersage für deren unterschiedliche Lebensdauern, um die Größenordnung der CPT-verletzenden Parameter einzuschränken. Weiterhin untersuchen wir die differentiellen Zerfallsraten von Myonen und Antimyonen. 337 922 891 The basis for a holistic cooperation strategy considering the changed (psycho) logics in the information age for ensuring a sustained interorganisational company development Die Grundlagen einer ganzheitlichen Kooperationsstrategie unter Berücksichtigung der veränderten (Psycho-)Logiken im Informationszeitalter zur Sicherstellung einer systemverträglichen interorganisationalen Unternehmensentwicklung The subordinated central point of the work is the practical life target to contribute to a better (proactive) steering and therewith the survivability and adaptability of the company. To be able to warrant this, an interdisciplinary approach is necessary which comprises not only economical logics and the increasing informational logics which deeply influenced the economic thinking up to now but also psychological logics because it is human behaviour above all that influences the company's development in a positive and negative manner.Consequently, in the first general part (chapter 1+2) the substantial economical, informational and psychological logics will be made transparent by means of a funded theoretical analysis. These logics control in an explicit and implicit manner the added value of a company and ensure also its survivability. As basis of the 'revelation' of the single logics serve a comparison between the development of these logics in the industrial society and the present knowledge respectively information society. Furthermore, basic theoretical perceptions from areas like classical economics, psy-chology, biology (keywords cybernetics and systems theory), humane discipline (keyword constructivism) but also informatics are integrated into the analysis. Herewith, the above mentioned interdisciplinary and holistic approach will be met.From the comparison of the development of the different logics in the industrial and informa-tional society emerges on the one hand that the tremendous innovation bump in the informa-tion and communication technology sector makes new business and organisational models and also completely new forms of interorganisational cooperations possible. Besides, it has to be said that the development of the informational and communicational technologies has deeply influenced the globalisation and, connected with it, has caused the enormous cost and competition pressure on the market. The latter forces the companies more and more to think about their specific competitive advantages and their own value chain.On the other hand, the enterprises are additionally confronted with the cognition that enter-prises do not work like trivial machines whose development can be totally influenced from outside. On the contrary, companies function as complex social systems with their own spe-cific individual and internal laws.Therefore, the enterprises who face competition are confronted with the challenge to secure their own sustained survivability through explicitly considering the single (psycho) logics within the framework of their own (operational and strategic) decision making processes leading to added value.What this really means and which consequences are behind will be described furthermore based on the development of a frame concept that helps companies to formulate a holistic cooperation strategy (chapter 3-5). In relation to this approach mainly two reasons have to be mentioned.On the one hand, this strategy will consider the above mentioned cognition that a smooth company development with regard to the changing (psycho) logics has to be realised through a different dealings with the external market. For this to be done, a theoretical framework is necessary so that a decision maker who faces the question of building a cooperation cannot only fall back on a 'pure pragmatism' but also on an analytical based concept for guidance.On the other hand, such a concept mainly includes that the focus is put consequently on ques-tions such as 'how to do it' or 'how does it work'. Such a strategy seems to be necessary because the first two chapters (the general part) primarily deals with the analytical recording of questions like 'what happens', 'what changes' or 'what can be done'.Accordingly, the specific part of the work comprises those theoretical facts (including the analysed changing psycho-logics) which are most important for a formulation of a holistic cooperation strategy.This analysis also considers that a company functions like a social system and therefore al-lows a look into the 'black box' enterprise instead of ignoring these facts such as much other work in this field.This means, besides the explanation of the term cooperation or the elucidation of the macro and micro economical facts that underpin the necessity of ample interorganisational coopera-tion, that mainly the psychological parameters are discussed which deeply and implicitly in-fluence the single phases of a cooperation's life cycle. Referring to this, on the one side, the analysis deals with some fundamental findings regard-ing the superior and instrumental goals of interorganisational cooperation. On the other side, the work comprises also these criteria and characteristics of cooperations that are of funda-mental importance regarding the success factors in the beginning of and throughout the coop-eration. Beyond this, these characteristics of cooperation are in no way superficially analysed but also the surrounding logical and psychological conditions are included in detail in this work. Furthermore, the gained results serve also to derivate a cooperation spectrum as well as an evaluation method for apprehending potential and existing cooperations.At the end this evaluation method and the underlying results are proved by a practical empiri-cal study, with the main goal to verify the founded facts in the praxis (chapter 6).In this way it is possible to make transparent the main design and steering parameters of new forms of interorganisational cooperation beyond market and hierarchy. So a decision maker has a theoretical founded frame work at his disposal and a clear case study. Ideally, this puts him in a position to understand not only the most important influential points of interorgani-sational cooperation and the underlying psychological conditions but also how to make them work within action programmes (keyword holistic cooperation strategy).Finally, such an instrument based on interdisciplinary and holistic findings contributes to a sustained adaptability and entrepreneurial development if put into practice. Der übergeordnete zentrale Anknüpfungspunkt der Arbeit ist das lebenspraktische Ziel, zu ei-ner besseren (proaktiven) Steuerungs- und damit Überlebens- bzw. Anpassungsfähigkeit von Unternehmen beitragen zu wollen. Um dies zu gewährleisten, ist ein interdisziplinärer Ansatz erforderlich, der nicht nur ökono-mische und zunehmend informatorische Logiken umfasst, also jene Logiken, die bis dato ge-rade die Betriebswirtschaftslehre (BWL) in hohem Maße beeinflusst haben, sondern auch psychologische Logiken, da es ja letztlich menschliches Verhalten ist, welches die Entwick-lung von Unternehmen im positiven und negativen Sinn steuert. Folglich werden im ersten, eher allgemein gehaltenen Teil mittels einer fundierten theoreti-schen Analyse die wesentlichen ökonomischen, informatorischen und psychologischen Logi-ken transparent gemacht, die die Wertschöpfung im Unternehmen, sprich jene Variable, die letztlich die Überlebensfähigkeit eines Unternehmens sichert, zu großen Teilen explizit und implizit steuern. Als Grundlage der 'Offenbarung' der einzelnen Logiken dient dabei ein Vergleich der Ent-wicklung jener in der Industriegesellschaft im Gegensatz zur heutigen Wissens- bzw. Infor-mationsgesellschaft. Des Weiteren fließen in die Analyse konsequent theoretisch fundierte Erkenntnisse aus dem Bereich der klassischen BWL, der Psychologie, der Biologie (Stichwort Kybernetik und Systemtheorie), der Geisteswissenschaften (Stichwort Konstruktivismus), aber auch der Informatik ein. Hierdurch wird der oben erwähnte Anspruch der Interdisziplina-rität bzw. Ganzheitlichkeit gewahrt. Aus dem Vergleich der Entwicklung der unterschiedlichen Logiken in Industrie- und Infor-mationsgesellschaft geht zum einen hervor, dass der ungeheure Innovationsschub bei den In-formations- und Kommunikationstechnologien (IuK-Technologien) völlig neue Geschäfts- und Organisationsmodelle, aber auch völlig neue Formen interorganisationaler Zusammenar-beit ermöglicht. Weiterhin ist die Entwicklung der IuK-Technologien auch in hohem Maße für die Globalisierung und den damit verbundenen Kosten- bzw. Wettbewerbsdruck auf den Märkten verantwortlich, welcher die Unternehmen mehr und mehr dazu zwingt, über ihre spezifischen Wettbewerbsvorteile sowie die eigene Wertschöpfung nachzudenken.Zum anderen sind die Unternehmen zusätzlich mit der Erkenntnis konfrontiert, dass es sich bei diesen eben nicht um triviale Maschinen handelt, deren Entwicklung sich umfassend von außen steuern bzw. beeinflussen lässt, sondern um komplexe soziale Systeme, die gemäß spe-zifischer Eigengesetzlichkeiten funktionieren. Somit sind die im Wettbewerb stehenden Unternehmen mit der Herausforderung konfrontiert, ihr eigenes systemverträgliches Überleben mittels der umfassenden Berücksichtung der ein-zelnen Logiken im Rahmen der (operativen und strategischen) Entscheidungsfindung in Be-zug auf die jeweilige Wertschöpfung zu sichern. Was dies konkret bedeutet und welche Folgen dies nach sich zieht, wird im Weiteren anhand der Entwicklung eines Rahmenkonzeptes zur Formulierung einer ganzheitlichen Kooperati-onsstrategie aufgezeigt, wobei sich hinter dieser Vorgehensweise im Wesentlichen zwei Gründe verbergen.Auf der einen Seite wird auf diese Weise der oben bereits angedeuteten zentralen Erkenntnis Rechnung getragen, dass eine möglichst reibungslose Entwicklung eines Unternehmens vor dem Hintergrund der veränderten Logiken nur mittels eines anderen Umgangs mit dem (ex-ternen) Markt erreichbar erscheint. Hierfür ist wiederum ein gedankliches, theoriegeleitetes Grundgerüst erforderlich, damit die Entscheider in der Praxis, die vor der Frage des Einge-hens von Kooperationen stehen, nicht allein auf einen 'puren Pragmatismus' zurückgreifen können, sondern ihnen auch ein analytisches Konzept als Handlungsgrundlage zur Verfügung steht. Auf der anderen Seite trägt gerade ein solches Konzept entscheidend dazu bei, dass, in Ab-kehr der eher generell gehaltenen Aussagen des allgemeinen Teils, der in erster Linie für eine analytische Erfassung des 'Was' verantwortlich ist (was passiert, was ändert sich, was ist zu tun etc.), der Fokus konsequent auf eine intensive Auseinandersetzung mit dem 'Wie' ge-richtet wird. Dementsprechend werden in dem speziellen Teil der Arbeit jene theoretischen Grundlagen (vor dem Hintergrund der aufgezeigten veränderten Logiken) einer genauen analytischen Be-trachtung unterzogen, die für die Formulierung einer ganzheitlichen Kooperationsstrategie zwingend erforderlich sind.Dabei wird in Anerkenntnis der Tatsache, dass bei der Generierung von Handlungsgrundlagen viel zu selten die Funktionsweise eines Unternehmens als soziales System gebührend berück-sichtigt wird, in besonderer Weise der Blick auf bzw. in die 'Black Box' Unternehmung ge-richtet.Das heißt, neben der begrifflichen Schärfung des Kooperationsbegriffes oder der Erläuterung der makro- und mikroökonomischen Gegebenheiten hinsichtlich der Notwendigkeit einer um-fassenden interorganisationalen Zusammenarbeit, kommen in besonderer Weise auch die (psycho-) logischen Parameter zur Sprache, die einen entscheidenden impliziten Einfluss auf die einzelnen Phasen des 'Kooperationslebenszyklus' ausüben. Diesbezüglich geht es zum einen um die Analyse einiger grundsätzlicher Erkenntnisse in Bezug auf die inhaltlichen und instrumentellen Ziele interorganisationaler Zusammenarbeit. Zum anderen steht aber auch die Herausarbeitung jener Kriterien bzw. Kooperationscharakteristiken im Mittelpunkt, denen in der Anbahnungs- und Vollzugsphase eine entscheidende Bedeutung im Hinblick die Erfolgs-trächtigkeit einer unternehmensübergreifenden Zusammenarbeit zukommt. Darüber hinaus werden diese Charakteristiken keineswegs einer lediglich oberflächlichen Analyse unterzo-gen, sondern die sie umgebenden logischen und psychologischen Bedingungskonstellationen werden detailliert in die Untersuchung einbezogen. Ferner dienen die gewonnenen Erkenntnisse dazu, ein entsprechendes Kooperationsspektrum sowie ein Bewertungsverfahren zur Erfassung potentieller und bestehender Kooperationen abzuleiten. Dieses Bewertungsverfahren nebst den zugrundeliegenden Erkenntnissen werden zum Ab-schluss der vorliegenden Arbeit einer empirischen Validierung mittels einer Fallstudie aus der Praxis unterzogen, wobei es in erster Linie darum geht, die 'Praxistauglichkeit' der gefunde-nen Ergebnisse zu untermauern. Auf diese Weise ist es möglich, die wesentlichen Gestaltungs- und Steuerungsparameter neu-er Formen interorganisationaler Zusammenarbeit jenseits von Markt und Hierarchie transpa-rent bzw. begreifbar zu machen. Einem Praktiker steht somit ein theoretisch fundiertes Gerüst nebst einem anschaulichen Fallbeispiel zur Verfügung. Dies versetzt ihn im Idealfall in die Lage, nicht nur die wichtigsten Stellschrauben interorganisationaler Zusammenarbeit und die dahinterstehenden psycho-logischen Bedingungskonstellationen zu erfassen, sondern diese auch innerhalb entsprechender Handlungsprogramme (Stichwort ganzheitliche Kooperations-strategie) konkret wirksam werden zu lassen. Letztlich trägt ein solches, auf interdisziplinären und ganzheitlichen Erkenntnissen beruhende Instrument bei entsprechender Anwendung wesentlich mit dazu bei, eine systemverträgliche Anpassungs- und Entwicklungsfähigkeit eines Unternehmens zu fördern bzw. zu ermögli-chen. 338 145 128 Describing the macroscopic behavior of surfaces based on atomistic models This work describes the modeling of interface and surface materials. A novel multiscale framework determines continuum material properties of free surfaces on the macroscale based on molecular dynamics simulations. A key aspect is the derivation of a thermodynamically consistent homogenization approach by the principle of energy minimization. The parameters describing the energy on the macroscale are determined from the comparison with the corresponding energy on the atomistic scale. In addition, this Ritz-homogenization approach is enlarged to thermoelastic materials. Afterwards, the work focuses on the continuum mechanically surface modeling and a strong coupling between bulk and surface physics. To be more precise, the surface deformation is directly determined from the underlying three-dimensional bulk deformation. Therefore, two approaches of the surface deformation are implemented. Finally, a numerical implementation of both approaches in a finite-element framework is derived. Diese Arbeit beschreibt die Modellierung von Grenz- und Oberflächen. Ein neuartiger Multiskalen-Modellierungsrahmen, basierend auf molekulardynamischen Simulationen, dient zur Bestimmung von Materialeigenschaften freier Oberflächen auf der Makroskala. Ein wesentlicher Aspekt dafür ist die Entwicklung eines thermodynamisch konsistenten Homogenisierungsansatzes auf Basis des Prinzips der Energieminimierung. Dabei werden die Parameter, welche die Energie auf der Makroskala beschreiben, aus dem Vergleich mit der Energie auf der atomistischen Skala ermittelt. Dieser Homogenisierungsansatz wird zudem auch auf thermoelastische Materialien erweitert. Danach liegt der Fokus auf einer kontinuumsmechanischen Modellierung von Oberflächen und einer starken Kopplung zwischen der Physik des Bulk- und Oberflächenmaterials. Dazu wird die Oberflächenverzerrung direkt aus der grundlegenden, dreidimensionalen Verzerrung des Bulkmaterials bestimmt. Dieses Vorgehen wird anhand zweier Ansätze implementiert. Schließlich wird für beide Ansätze eine numerische Implementierung in die Finite-Elemente Methode hergeleitet. 339 1290 1224 Online-Kopplung von Größenausschluss- Chromatographie und Chromatographie unter kritischen Bedingungen mit NMR-Spektroskopie zur Charakterisierung und Molmassenbestimmung von Copolymeren The present thesis deals with the online-coupling of size exclusion chromatography (SEC) and liquid chromatography at critical conditions (LCCC) with NMR spectroscopy in order to characterize polymers and determine their molar masses. In this regard it was the aim to establish the coupled techniques that way that they were working with common chromatographic conditions, e. g. sample concentration, flow rate and solvents. The measurements should result in quantitative characterizations. The difficulty with NMR measurements on the flowing medium (onflow) was that nuclei only have a limited residence time in the detection cell, while NMR spectroscopy has to wait for relaxation of the nuclei during accumulation of the spectra. Conclusively, NMR measurement parameters should fulfill the given contrary conditions. To find a suitable set of NMR parameters, the behaviour of nuclei in the magnetic field under flow conditions was evaluated, especially regarding T1 relaxation and its influence on signal intensities. By varying the flow rate, the pulse repetition time and the pulse angle it was found that quantitative results were obtainable only by using uncommon chromatographic conditions or not useful NMR parameters. However, based on these results a method was developed to evaluate and correct the errors in not quantitative NMR data. Therefore, it was possible to quantify data from SEC-NMR and LCCC-NMR measurements although they were performed with not quantitative conditions. Thus, the evaluation of the reciprocal influences of chromatographic and NMR spectroscopic parameters resulted in a new method in HPLC-NMR applications. In the following, a new onflow SEC-NMR coupling was developed and presented by characterizing a number of polystyrene-polymethyl methacrylate (PS-b-PMMA) and polyisopren-polymethyl methacrylate (PI-b-PMMA) block copolymers. In all cases, THF was used as solvent at a flow rate of 0.8 mL . min-1. In the onflow NMR spectra, signals of all blocks could be identified over the entire elution period: PS blocks were quantified by the signals of the aromatic protons, PMMA blocks by the signals of the a-CH3 group and PI by the signals of the olefinic protons. Thus, SEC chromatograms could be obtained directly from the SEC-NMR data for all blocks of the PS-b-PMMA and PI-b-PMMA copolymers as well as for the copolymers themselves. In addition, the microstructure of PMMA blocks could be analyzed in dependence on retention time, while for PI the different isomeric species of isoprene units in the polymer chains could by characterized. For the copolymers, chemical heterogeneities could be calculated directly from the chromatograms. Calibration of the SEC-NMR system with defined polymer standard samples allowed for molar mass determination. For one of the PI-b-PMMA copolymers a method was developed to separate coeluting fractions of co- and homopolymers by a mathematical procedure. For this, knowledge of the chemical heterogeneity of the sample was essential. The possibility to distinguish between the different species in copolymers is a significant advantage of NMR spectroscopy. As an alternative, a series of different detectors can be used (multiple detection, e. g. combined UV and refractive index detection). However, multiple detection is time consuming due to additional calibrations and mathematical efforts. The use of NMR spectroscopy is furthermore beneficial when the distinction of different species by multiple detection is impossible (e. g. microstructure heterogeneities). With respect to copolymer molar masses, a good agreement between onflow SEC-NMR and SEC-RI-UV was found. However, number average molar masses Mn determined by onflow SEC-NMR were smaller due to the influence of the large detection cell. The new onflow SEC-NMR method uses calibrations for molar mass determinations as it is common in SEC and is therefore a relative procedure. By NMR detection, molar masses can be calculated also in an absolute way, when NMR signals of end or linking groups of the polymers can be identified over the elution period. This was possible for four short PI-b-PMMA copolymers which were linked by a diphenylethylene (DPE) group each. The corresponding NMR signals could be used as an internal reference for direct block length calculation. The resulting absolute molar masses were smaller than those determined by the relative method. The interpretation of this finding was that the hydrodynamic volumes of the blocks did not contribute simply additive to the block copolymer volumes but that additional repulsive effects result in increased hydrodynamic volumes of the block copolymers. Another new online-SEC-NMR method developed and presented in this thesis was called fractionated SEC-NMR. Hereby, SEC peaks were identified with a UV detector and then directed to a number of capillary loops for fractionation. After the chromatography was finished, the pump was used to transfer each collected fraction sequentially to the NMR flow probe where measurements were performed without a flowing mobile phase. Consequently, the nuclei had sufficient time for full relaxation during accumulation of a NMR spectrum. The fractionated SEC-NMR had all advantages of the onflow method and additionally provided correct Mn values. Moreover, it also allowed for the detection of insensitive nuclei which was proved with a deuterated PS-b-PMMA copolymer (2H detection). The coupling of LCCC and NMR was applied to separate and characterize blends of different PI samples. This work continued and extended a work which was presented in a former thesis by Pritish Sinha (TU Darmstadt, Germany, 2009). The blends contained PI samples which were dominated by 1,4-isoprene units as well as samples which were built mainly by 3,4-isoprene. Critical conditions for PI(1,4) samples were used which simultaneously led to SEC elution of the PI(3,4) samples. This allowed for the separation and characterization of the mixtures. The NMR signals of the olefinic protons were used to obtain chromatograms for all isomeric species of the isoprene units in the polymer chains as well as the isomeric compositions in dependence on retention time. The separation could be further improved by a mathematical procedure. In this way, the compositions of the mixtures of samples could be efficiently calculated via the isomer amounts. Molar mass determination for the PI(3,4) samples could be performed on the basis of a calibration curve. It was found in all cases that the resulting Mn values were significantly to small. This was caused by the 1,4-isomers in the PI(3,4) samples which stretched the chromatograms in the direction of the PI(1,4) critical retention time. Due to this finding, molar mass determination from LCCC-NMR data is limited. In the last chapter the short PI-b-PMMA copolymers have been analyzed by LCCC-NMR with PI eluting in critical mode and PMMA in SEC regime. Molar masses for the PMMA blocks were calculated on the basis of a calibration curve. Alternatively, molar mass determination was possible from direct block length calculation by using the DPE signals as internal reference. The resulting values from the calibration method were too small especially in case of Mn. The chromatographic effect causing this was also found and discussed for the PI blends. In contrast to that finding, the internal referencing procedure by the DPE signals was not influenced by that effect and hence resulted in realistic molar masses. Furthermore, very good accordance was found to the molar masses determined absolutely from SEC-NMR measurements. Consequently, effects leading to peak shape deformation or retention time shift have no influence on the absolute molar mass determination method. This can be explained by the fact that it does not rely on calibration curves which are not necessarily influenced in the same way as the samples. For using the absolute method it is essential to detect signals of end or linking groups which for small polymers is possible by using NMR detection. Finally, an electronic reference signal was implemented in the LCCC-NMR spectra which allowed for conversion of the chromatograms to molar amount and to mass related curves. It was seen that for depiction of LCCC-NMR chromatograms substance amounts in the order of 10-8 mol to 10-7 mol and 10-6 g to 10-5 g, respectively, per onflow spectrum were sufficient. Die vorliegende Arbeit beschäftigt sich mit der online-Kopplung von Größenausschluss- Chromatographie (SEC) und Chromatographie unter kritischen Bedingungen (LCCC) mit der NMR-Spektroskopie zum Zwecke der Charakterisierung und Molmassenbestimmung von Polymeren. Dabei wurde besonders darauf Wert gelegt, die Kopplungen so auszulegen, dass SEC-NMR- und LCCC-NMR-Messungen hinsichtlich der Probenkonzentration, der Flussrate und der Lösungsmittel unter chromatographisch üblichen Bedingungen durchgeführt werden konnten. Die erhaltenen Resultate sollten quantitativ verwertbar und interpretierbar sein. Die Schwierigkeit bei NMR-Messungen am fließenden Medium (onflow) bestand dabei darin, dass sich Kerne nur für eine begrenzte Zeit innerhalb der Detektionszelle befanden, die NMR-Spektroskopie bei der Akkumulation von Messdaten jedoch die zur Kernrelaxation benötigte Zeit berücksichtigen musste. NMR-Messparameter sollten folglich den genannten konträren Voraussetzungen gerecht werden können. Um die geforderten Messparameter festlegen zu können, wurde zunächst untersucht, wie sich Kerne unter Flussbedingungen im Magnetfeld verhalten, insbesondere hinsichtlich der T1-Relaxation und deren Auswirkung auf die gemessene Signalintensität. Durch Variation der Flussrate, der Wartezeit zwischen zwei Auslenkungen und dem Auslenkungswinkel wurde festgestellt, dass quantitative Ergebnisse auf direktem Weg nur unter Verwendung untypischer chromatographischer Bedingungen oder nicht sinnvoller NMR-Messparameter erhalten werden können. Allerdings wurde auf Basis dieser Untersuchungen eine Methode entwickelt, mit der die Fehler in nicht quantitativen Messdaten bestimmt und korrigiert werden konnten. Mithilfe dieses Ergebnisses war es in der Folge möglich, SEC-NMR und LCCC-NMR-Messungen durchzuführen, die trotz fehlerbehafteter Rohdaten quantitativ ausgewertet und interpretiert werden konnten. Insofern führte die Evaluierung der wechselseitigen Einflüsse von chromatographischen und NMR-spektroskopischen Parametern zu einer neuen Messmethodik in HPLC-NMR-Kopplungen. Mit den gewonnenen Kenntnissen wurde eine neue onflow SEC-NMR-Kopplung präsentiert. Als Proben standen dabei verschiedene Block-Copolymere zur Verfügung. Es wurden Polystyrol-Polymethylmethacrylat- (PS-b-PMMA) und Polyisopren-Polymethylmethacrylat- Block-Copolymere (PI-b-PMMA) untersucht. Als Lösungsmittel wurde in beiden Fällen THF bei einer Flussrate von 0,8 mL . min-1 eingesetzt. In den onflow NMR-Spektren konnten Signale aller Blöcke identifiziert und über den Retentionszeitverlauf verfolgt werden: PS-Blöcke wurden durch die Signale der aromatischen Protonen, PMMA-Blöcke durch die Signale der a-CH3-Gruppe und PI-Blöcke durch die Signale der olefinischen Protonen quantifiziert. Infolge dessen waren SEC-Chromatogramme für alle Blöcke der PS-b-PMMAund der PI-b-PMMA-Copolymere sowie für die Copolymere selbst aus den Messdaten direkt zugänglich. Für die PMMA-Blöcke konnte außerdem die Mikrostruktur in Abhängigkeit von der SEC-Retentionszeit untersucht werden, während bei den PI-Blöcken die verschiedenen isomeren Formen der Isopren-Einheiten charakterisierbar waren. Weiterhin konnten die chemischen Heterogenitäten der Copolymere, also die Veränderungen der molaren Copolymer-Zusammensetzungen in Abhängigkeit von den Copolymer-Molmassen, direkt aus den Chromatogrammen ermittelt werden. Durch Kalibrierung des SEC-NMR-Systems mit definierten Polymerstandards war es schließlich möglich, die Molmassen der Copolymere zu bestimmen. Für ein PI-b-PMMA-Copolymer wurde ferner eine Möglichkeit aufgezeigt, coeluierende Fraktionen von Copolymeren und Homopolymeren mathematisch zu trennen. Für diese Prozedur war die Kenntnis über die chemische Heterogenität der Probe unverzichtbar. Die Möglichkeit, verschiedene Polymer-Spezies mit nur einem Detektor voneinander zu unterscheiden, ist ein bedeutender Vorteil der NMR-Spektroskopie. Alternativ bietet sich zur Bestimmung der chemischen Heterogenität die Verwendung verschiedener in Reihe geschalteter Detektoren an (multiple Detektion, z. B. UV- und Brechungsindex- Detektoren), die jedoch aufgrund weiterer Kalibrierungen und mathematischer Prozeduren einen höheren Aufwand erfordert. Weiterhin ist die NMR-Detektion vorteilhaft, wenn mittels multipler Detektion die Unterscheidung verschiedener Spezies nicht möglich ist (wie häufig bei mikrostrukturellen Heterogenitäten). In Bezug auf die Copolymer-Molmassen zeigte sich eine gute Übereinstimmung zwischen onflow SEC-NMR und SEC-RI-UV; allerdings wurden die zahlenmittleren Molmassen Mn durch onflow SEC-NMR zu klein bestimmt, was auf den Einfluss der Flusszelle im NMR-Probenkopf zurückgeführt wurde. Die beschriebene neue onflow SEC-NMR-Methode nutzte wie in der SEC üblich Kalibrierungen zur Molmassenbestimmung und war somit eine relative Methode. Durch die NMR-Detektion können Molmassen allerdings auch absolut bestimmt werden, wenn das NMR-Signal einer End- oder Brückengruppe des Polymers über den Retentionszeitverlauf verfolgt werden kann. Dies war für vier kurze PI-b-PMMA-Copolymere möglich, deren Blöcke durch je eine Diphenylethylen-Einheit miteinander verbunden waren. Die zugehörigen Signale konnten als interne Referenz verwendet werden, um die Blocklängen der PI- und PMMA-Blöcke direkt zu berechnen. Die daraus erhaltenen Molmassen waren im Vergleich zu denen aus der Relativ-Methode kleiner. Die Interpretation dieses Vergleichs führte zu dem Schluss, dass sich die hydrodynamischen Volumina der PI-b-PMMA-Copolymere nicht additiv aus den Volumina seiner Blöcke zusammensetzt, sondern dass zusätzlich abstoßende Effekte für eine Volumensvergrößerung sorgen müssen. Eine weitere neu entwickelte und in dieser Arbeit vorgestellte online-Kopplung von SEC und NMR ist die fraktionierte SEC-NMR. Hierbei wurden SEC-Peaks von PS-b-PMMACopolymeren zunächst mittels UV-Detektion identifiziert und im Anschluss in Kapillarschleifen fraktioniert. Nach Abschluss der Chromatographie wurde die Pumpe dazu eingesetzt, die einzelnen Fraktionen nacheinander in den NMR-Flussprobenkopf zu transferieren, wo sie ohne Fluss gemessen werden konnten. Aus diesem Grund konnte auch auf die T1-Relaxationszeit der Kerne Rücksicht genommen werden. Für die fraktionierte SEC-NMR galten alle Vorteile der onflow-Methode; zusätzlich gab sie Mn- Werte korrekt wieder und ließ auch die Detektion unempfindlicher Kerne zu, wie anhand eines vollständig deuterierten PS-b-PMMA-Copolymers gezeigt werden konnte. Die Kopplung von LCCC mit NMR wurde zunächst zur Trennung und Charakterisierung von PI-Mischungen angewendet. Damit wurde eine bereits vorher in der Dissertationsschrift von Pritish Sinha (TU Darmstadt, Deutschland, 2009) vorgestellte Arbeit fortgesetzt und vertieft. Die Mischungen enthielten sowohl PI-Proben, die durch das 1,4-Isomer dominiert wurden als auch solche, die mehrheitlich durch das 3,4-Isomer gebildet waren. Kritische Bedingungen galten für PI(1,4)-Proben, während die PI(3,4)-Proben gleichzeitig im SEC-Modus eluierten. Dadurch konnten die Mischungen getrennt und mittels NMR-Detektion charakterisiert werden. Die Signale der olefinischen Protonen konnten genutzt werden, um Chromatogramme für alle vorkommenden isomeren Formen des PI darzustellen und den Verlauf der Zusammensetzung in Abhängigkeit von der Retentionszeit zu verfolgen. Die Trennung der Mischungen konnte mathematisch optimiert werden. So konnte die molare Zusammensetzung der Mischungen über die Isomerenanteile effizient bestimmt werden. Für die PI(3,4)-Proben wurde eine Molmassenbestimmung mithilfe einer Kalibrierkurve durchgeführt. Es wurde festgestellt, dass Mn in allen Fällen deutlich zu klein bestimmt wurde. Dies konnte auf die 1,4-Isopren-Einheiten in den PI(3,4)-Proben zurückgeführt werden, welche die Elution der Proben in Richtung der kritischen Retentionszeit verbreiterten. Dieser Effekt führte zu der Erkenntnis, dass eine Molmassenbestimmung aus LCCC-NMR-Daten nur eingeschränkt möglich ist. Schließlich wurden auch die kurzkettigen PI-b-PMMA-Copolymere mittels LCCC-NMR untersucht. PI eluierte dabei kritisch und PMMA im SEC-Modus. Molmassen für die PMMABlöcke konnten durch Kalibrierung bestimmt werden. Alternativ bot sich hier auch wieder die direkte Berechnung der Blocklängen mithilfe des Signals der Diphenylethylen-Einheit an. Die aus der Kalibrierkurve berechneten Molmassen der PMMA-Blöcke zeichneten sich insbesondere für Mn durch zu kleine Werte und daraus resultierende hohe Polydispersitäten aus. Der zugrunde liegende chromatographische Effekt war bereits bei den PI-Mischungen festgestellt worden. Im Gegensatz dazu zeigte sich die Auswertung auf Basis der DPE-Referenz gegenüber dem chromatographischen Effekt unempfindlich und lieferte realistische Molmassen und kleine Polydispersitäten. Ferner ergaben sich sehr gute Übereinstimmungen der absolut bestimmten Molmassen zu den SEC-NMR-Messungen. Aus den Messergebnissen von SEC-NMR und LCCC-NMR konnte weiterhin gefolgert werden, dass Effekte, die Einflüsse auf die Peakformen oder die Retentionszeiten ausüben, für die Absolut-Methode keine Rolle spielen. Dies liegt insbesondere daran, dass die Absolut- Methode ohne Kalibrierungskurven auskommt, welche nicht zwangsläufig den gleichen Effekten unterliegen. Die Auswertung mit der Absolut-Methode erfordert, dass Signale von End- oder Brückengruppen detektierbar sind, was die NMR-Spektroskopie ermöglichen kann. Schließlich konnte mithilfe eines elektronisch erzeugten Referenzsignals gezeigt werden, dass die Intensitätsachsen der Chromatogramme sowohl in Stoffmengen- als auch in Massenachsen umgerechnet werden konnten. Daher konnte letztlich festgehalten werden, dass zur Darstellung von LCCC-NMR-Chromatogrammen bereits Substanzmengen in der Größenordnung von 10-8 mol bis 10-7 mol bzw. Substanzmassen in der Größenordnung von 10-6 g bis 10-5 g pro onflow-Spektrum hinreichend waren. 340 265 213 Analysis of rare hadronic decay modes and simulation studies for the scintillating fibre tracker at the LHCb experiment The work presented in this thesis comprises two individual topics: While the first part presents a branching ratio measurement of the decay 𝐵0𝑠→ 𝐾0S𝐾0S, the second part discusses the author’s contribution to the simulation of the upgraded LHCb detector. To reduce systematic uncertainties, the branching ratio is measured normalised to the branching ratio ℬ(𝐵0 → 𝜙𝐾0S). The analysed data sample corresponds to an integrated luminosity of 3 fb−1 of 𝑝𝑝 collisions recorded at centre-of-mass energies of 7 and 8 TeV by the LHCb experiment. The branching ratio has been measured as: ℬ(𝐵0𝑠→ 𝐾0S𝐾0S) = (22.9 ± 7.3 (stat) ± 1.7 (syst) ± 2.2 (ℬ(𝐵0 → 𝜙𝐾0S)) ± 1.3 (𝑓𝑑/𝑓𝑠)) ⋅ 10−6 . The result is compatible within 1.7 𝜎 with results for the branching ratio ℬ(𝐵0𝑠→ 𝐾0𝐾0) from various theory predictions and a measurement performed by the Belle experiment. The performance of the Scintillating Fibre (SciFi) tracker, which will be installed for the upgrade of the LHCb experiment during the Long Shutdown 2 of the LHC, depends mainly on the light yield of the scintillating fibres. Since this light yield is reduced over time by radiation induced damage, the correct description of the light yield attenuation depending on the integrated luminosity is a crucial part of the tracker’s simulation. The second part of the thesis describes the construction of a software framework that allows to simulate lookup maps for this attenuation as a function of the hit position, which are then used in the LHCb detector simulation. Diese Arbeit umfasst zwei verschiedene Hauptthemen: Während im ersten Teil die Messung des Verzeigungsverhältnis des Zerfalls 𝐵0𝑠→ 𝐾0S𝐾0S beschrieben wird, zeigt der zweite Teil den Beitrag des Autors zur Simulation des LHCb Detektors nach seinem Upgrade. Um systematische Unsicherheiten zu verringern, wird das Verzeigungsverhältnis relativ zum Verzeigungsverhältnis ℬ(𝐵0 → 𝜙𝐾0S) gemessen. Der verwendete Datensatz entspricht einer integrierten Luminosität von 3 fb−1 von 𝑝𝑝-Kollisionen, aufgenommen vom LHCb-Experiment bei Schwerpunktenergien von 7 und 8 TeV. Die Messung des Verzweigungsverhältnis ergibt: ℬ(𝐵0𝑠→ 𝐾0S𝐾0S) = (22.9 ± 7.3 (stat) ± 1.7 (syst) ± 2.2 (ℬ(𝐵0 → 𝜙𝐾0S)) ± 1.3 (𝑓𝑑/𝑓𝑠)) ⋅ 10−6 . Das Ergebnis ist innerhalb von 1.7 𝜎 kompatibel mit den Werten für das Verzweigungsverhältnis ℬ(𝐵0𝑠→ 𝐾0𝐾0) aus verschiedenen theoretischen Vorhersagen sowie aus der Messung durch das Belle-Experiment. Die Leistungsfähigkeit des Scintillating Fibre (SciFi) Tracker, welcher für das Upgrade des LHCb Detektor während des Long Shutdown 2 des LHC installiert wird, hängt hauptsächlich von der Lichtausbeute der szintillierenden Fasern ab. Da diese Lichtausbeute durch strahlungsinduzierte Schäden reduziert wird, ist eine korrekte Beschreibung dieser Abschwächung in Abhängigkeit von der integrierten Luminosität ein entscheidender Teil der Detektorsimulation. Der zweite Teil der Arbeit beschreibt den Aufbau eines Software-Frameworks, das es ermöglicht, die Lichtausbeuteabschwächung als Funktion der Hit-Position zu simulieren. Dies wird im LHCb Software-Framework für die Detektorsimulation verwendet. 341 88 86 Beiträge zur Chemie polyvalenter Iod-Verbindungen Syntheses and characterisation of polyvalent iodine compounds are described. The first part deals with trifluoromethyl substituted iodine(III) compounds CF3IX2 (X = F, Cl, OCH3, OCOCF3) and CF3I(Cl)Y (Y = F, OCH3, OCOCF3). By using bond lengths and data obtained by single crystal X-ray structure determination, a principle to describe bond parameters in these compounds is discussed. In addition to the mixed valent compound Cl2IOI(O)F2, molecules containing iodine in the oxidation state (V) are described in the second part. With [PPh4] [I3Br4] an example of a polybromide is reported. Die vorliegende Dissertation befaßt sich mit der Darstellung und Charakterisierung von polyvalenten Iod-Verbindungen. Der erste Teil beschreibt trifluormethyl-substituierte Iod(III)-Moleküle des Typs CF3IX2 (X = F, Cl, OCH3, OCOCF3) und CF3I(Cl)Y (Y = F, OCH3, OCOCF3). Anhand der in Einkristallröntgenstrukturuntersuchungen ermittelten Bindungsdaten wird ein Prinzip zur Beschreibung der Bindungsverhältnisse in den Verbindungen diskutiert. Neben der gemischt-valenten Verbindung Cl2IOI(O)F2 umfaßt der zweite Teil Moleküle mit Iod in der Oxidationsstufe (V). Im dritten Kapitel wird mit [PPh4] [I3Br4] exemplarisch das Gebiet der Polybromide angeführt. 342 414 366 Untersuchungen zur Anwendung immobilisierter Aktivatoren bei der Absorption von CO2 mit wässrigen Methyldiethanolamin-Lösungen These days, because of its high loading and relatively good regeneration properties, the pre-ferred method of removing larger quantities of CO2 from natural gas and synthesis gas is washing with tertiary methyldiethanolamine (MDEA). To increase the achievable levels of purity, small amounts of primary or secondary amines are added to the MDEA solutions, which considerably accelerate CO2 absorption in the absorber by forming carbamate. How-ever, one disadvantage of adding these so-called activators is that they increase the corrosive-ness of the MDEA solutions, especially in the hot parts of the desorber. In addition to this, these activators must be thermally regenerated in the washing agent cycle, which increases the heat requirements for regenerating the washing agent compared to a pure MDEA solution.Against this background, it was considered whether it would be possible to specifically retain the chemical activators in the absorber � in other words, to immobilize them - so that, on the one hand, they are available to improve performance during the absorption process and, on the other, negative concomitant phenomena in other parts of the system are prevented.The objective of this study is to examine whether the absorption of CO2 with an aqueous methyldiethanolamine (MDEA) solution can be increased with immobilized activators in a similar way to the addition of liquid activators in the form of primary or secondary amines. On the basis of experiments to characterize and quantify the substance transport and reaction stages that take place in this combined absorption and adsorption process it can be demon-strated that, in principle, intensification of CO2 absorption with an aqueous MDEA solution is not possible when adsorption by immobilized primary amines takes place as a parallel reac-tion in the liquid phase, since adsorption of dissolved CO2 by immobilized activators is much slower than bonding of dissolved CO2 via a liquid phase reaction with MDEA.However, on the basis of the investigation it was discovered that it is possible to derive an alternative process concept to remove CO2 from a gas mixture in a three-phase system in which the CO2 is bonded directly from the gas flow by rapid gas phase adsorption with im-mobilized primary amines and is then removed from the system by releasing it to an MDEA solution flowing over the top.A hybrid adsorption/absorption process such as this would provide the main advantages of the original process idea, reduce energy consumption for regeneration and reduce the corrosive-ness of the MDEA solution and also enable a high level of purity in the gases being treated. Zur Entfernung größerer CO2 - Mengen aus Erd- oder Synthesegas werden heutzutage auf-grund ihrer hohen Beladungsfähigkeit und vergleichsweise guten Regenerationseigenschaften bevorzugt Wäschen mit dem tertiären Methyldiethanolamin (MDEA) verwendet. Zur Steige-rung der erzielbaren Reinheiten werden den MDEA-Lösungen dabei geringe Mengen an pri-mären oder sekundären Aminen zugesetzt, die die CO2 - Aufnahme im Absorber durch eine Carbamatbildung deutlich beschleunigen. Die Zugabe dieser so genannten Aktivatoren führt jedoch nachteilig zu einer höheren Korrosivität der MDEA-Lösungen insbesondere in den heißen Teilen des Desorbers. Zudem müssen diese Aktivatoren im Waschmittelkreislauf thermisch regeneriert werden, womit sich der Wärmebedarf bei der Regeneration des Wasch-mittels gegenüber dem einer reinen MDEA-Lösung erhöht.Vor diesem Hintergrund ergibt sich die Überlegung, die chemischen Aktivatoren gezielt im Absorber zurückzuhalten - d.h. zu immobilisieren -, so dass diese einerseits zur Leistungsstei-gerung beim Absorptionsvorgang zu Verfügung stehen, andererseits jedoch die negativen Begleiterscheinungen in den anderen Anlagenteilen verhindert werden.Ziel der vorliegenden Arbeit ist es zu untersuchen, ob sich die Absorption von CO2 mit einer wässrigen Methyldiethanolamin(MDEA)-Lösung durch immobilisierte Aktivatoren in ähnli-cher Weise steigern lässt, wie dies durch Zugabe flüssiger Aktivatoren in Form primärer bzw. sekundärer Amine der Fall ist. Auf Grundlage von experimentellen Untersuchungen zur Cha-rakterisierung und Quantifizierung der bei dieser kombinierten Ab- und Adsorption ablaufen-den Stofftransport- und Reaktionsschritte kann gezeigt werden, dass eine Intensivierung der Absorption von CO2 mit einer wässrigen MDEA-Lösung für den Fall, dass die Adsorption durch die immobilisierten primären Amine als Parallelreaktion in der flüssigen Phase stattfin-det jedoch prinzipiell nicht möglich ist, da die die Adsorption von gelöstem CO2 durch immo-bilisierte Aktivatoren deutlich langsamer erfolgt, als die Bindung von gelöstem CO2 durch eine Flüssigphasenreaktion mit MDEA.Auf Grundlage der Untersuchungen lässt sich jedoch ein alternatives Verfahrenskonzept zur Entfernung von CO2 aus einem Gasgemisch in einem dreiphasigen System ableiten, bei dem das CO2 zunächst durch eine schnelle Gasphasenadsorption mit immobilisierten primären Aminen direkt aus dem Gasstrom heraus gebunden und anschließend durch Abgabe an eine überfließende MDEA-Lösung aus dem System entfernt wird.Ein solch hybrides Ad- / Absorptionsverfahren würde die wesentlichen Vorteile der ursprüng-lichen Verfahrensidee, ein geringer Energieverbrauch bei der Regeneration sowie eine geringe Korrosivität der verwendeten MDEA-Lösung, aufgreifen und gleichzeitig eine hohe Reinheit des zu behandelnden Gases ermöglichen. 343 189 161 Coupling diode laser desorption with plasma ionization in mass spectrometry for analytical and biomedical applications This thesis focuses on the coupling of laser desorption with plasma ionization in mass spectrometry for analytical and biomedical applications. A diode laser is used to trigger thermal desorption of substances from a surface. For this reason, a metal-isolator sandwich structure is developed and conceptually tuned to analytical demands on the basis of a microscope slide, lithography and sputtering. The neutral desorbate is then ionized by a flexible, atmospheric pressure micro plasma and is finally detected by a mass spectrometer. Different analyte classes are investigated to evaluate the method, ranging from analytical standards to complex samples. These insights are extended to an automated imaging of biological tissue, which requires an adaption of the substrate design. The inherent laser-based and thermal surface effects are intensively studied and optimized to the imaging. As a result, the imaging of biological samples is simplified, faster and can be carried out in ambient air without the need of a chemical matrix, which can be applied to routine analysis in life sciences. The limits of the method are finally evaluated. Diese Arbeit beschäftigt sich mit der Kopplung von Laser-Desorption mit Plasma-Ionisierung für die Massenspektrometrie von analytischen und biomedizinischen Proben. Bei dieser Messmethodik wird ein Diodenlaser zur thermisch gesteuerten Desorption von Proben von einer Oberfläche benutzt. Auf Basis von Objektträgern, der Lithografie und der Kathodenzerstäubung wird eine zweilagige Metall-Isolator Substratstruktur für die Laser-Desorption entwickelt und auf die analytischen Anforderungen optimiert. Das durch die Laser-Desorption entstehende neutrale Desorbat wird mittels eines flexiblen, bei Atmosphärendruck arbeitenden Mikroplasmas ionisiert und schließlich mit einem Massenspektrometer detektiert. Die Methode wird an verschiedenen Analytklassen evaluiert, die von analytischen Standards bis zu komplexen Proben reichen. Als Erweiterung der analytischen Standards wird eine automatisierte Bildgebung an biologischen Proben vorgestellt, welche eine abgewandelte Substratstruktur erfordert. Die damit einhergehenden Laser-basierten und thermischen Oberflächeneffekte werden untersucht und zur Optimierung der Methodik herangezogen. Dadurch lassen sich biologische Proben einfacher, schneller und unter Umgebungsbedingungen ohne chemische Matrix untersuchen, was in der Routineanalytik in den Lebenswissenschaften Anwendung finden kann. Schließlich werden die Grenzen der Messmethode eruiert. 344 283 258 Untersuchungen zu chiralen Aminosilanolen und deren Siloxiden Siloxides (Si-O-metal) are of essential importance for all fields of silicatic materials. Siloxides play a crucial role particularly as heterogeneous catalysts and in the currently emerging field of hybrid materials. Despite this, there are gaps in the molecular understanding of simple siloxides, while more complex systems with additional functionalities or stereogenic centers are virtually unexplored. In this dissertation, silanols and derived siloxides of zinc were studied with a (N,N)-dimethylaminomethylferrocenyl backbone. Thus, these compounds feature not only the additional functional group in the form of the amine, but also the distinctive planar chirality through the disubstituted ferrocene parent body. The synthesis of the aminomethoxysilanes is possible both racemically and enantiomerically pure. By hydrolysis of the methoxy groups, either stable aminosilanols or silanediols or the partially condensed diaminodisiloxanediols are obtained, depending on the other substituents. The corresponding zinc siloxides are obtainable by direct reaction with zinc salts. Particularly in the case of the dimeric zinc siloxides, the possibilities for controlling the siloxide’s structure motif via stereo-chemistry are investigated. For the first time, it was possible to break the invariably preferred inversion symmetry of the siloxide dimers and to generate C2-symmetrical structures. In addition, the elucidation of some unusual intermediates of hydrolysis and condensation reactions provided new insights into the complexity of the underlying processes. The diaminodisilox-anediols are also particularly interesting from a stereochemical point of view, since regulation of the configuration on newly generated stereogenic siliconcenters by the configuration of the aminoferrocene is apparent. The reaction with zinc salts leads directly to diammoniumdisiloxanedisiloxides, which do not aggregate to more complex structures due to intramo-lecular charge compensation by the ammonium groups. This represents a promising model for molecular analogues of heterogeneous catalyst systems based on silicate. Siloxide (Si-O-Metall) sind von essentieller Bedeutung für alle Anwendungsbereiche silicatischer Materialien. Insbesondere als heterogene Katalysatoren und im derzeit aufkommenden Feld der Hybridmaterialien spielen Siloxide eine entscheidende Rolle. Trotz dessen klaffen noch immer Lücken im molekularen Verständnis einfacher Siloxide auf, während komplexere Systeme mit zusätzlichen Funktionalitäten oder stereogenen Zentren so gut wie unerforscht sind. In der vorliegenden Dissertation wurden Silanole und davon abgeleitete Siloxide des Zinks mit einem (N,N)-Dimethylaminomethylferrocenyl-Rückgrat untersucht. Damit zeichnet diese Verbindungen nicht nur die weitere funktionelle Gruppe in Form des Amins aus, sondern auch die markante planare Chiralität durch den disubstituierten Ferrocen-Grundkörper. Die Synthese der Aminomethoxysilane ist racemisch als auch enantiomerenrein möglich. Durch Hydrolyse der Methoxy-Gruppen werden abhängig von den weiteren Substituenten entweder stabile Aminosilanole bzw. –silandiole oder die partiell kondensierten Diaminodisiloxandiole erhalten. Durch direkte Umsetzungen mit Zinksalzen sind die entsprechenden Zinksiloxide zugänglich. Insbesondere bei den dimeren Zinksiloxiden werden die Möglichkeiten zur Steuerung des zugrundeliegenden Strukturmotivs über die Stereochemie untersucht. Dabei gelang es erstmals, die stets bevorzugte Inversionssymmetrie der Siloxid-Dimere zu brechen, und C2-symmetrische Strukturen zu erzeugen. Darüber hinaus gelang die Aufklärung einiger ungewöhnlicher Zwischenprodukte von Hydrolyse- und Kondensationsreaktionen, welche neue Einblicke in die Komplexität der zugrundeliegenden Prozesse liefern. Auch die Diaminodisiloxandiole sind aus stereochemischer Sicht besonders interessant, da eine Regulierung der Konfiguration auf den erzeugten stereogenen Soliciumzentren durch die Konfiguration des Aminoferrocens erkennbar ist. Die Umsetzung mit Zinksalzen führt direkt zu Diammoniumdisiloxandisiloxiden, welche dank der intramolekularen Ladungskompensation durch die Ammonium-Gruppen nicht zu komplexeren Strukturmotiven aggregieren. Dadurch stellen diese vielversprechende Modelsysteme für molekulare Analoga hete-rogener Katalysatorsysteme auf Silicatbasis dar. 345 354 319 Influence of viral fusion peptides, cellular solutes and cholesterol on the structure of lipid membranes Lipid membranes are crucial components of living cells. They constitute the outer shell and separate intracellular compartments and organelles. To regulate the mass transfer between the separated regions, they undergo remodeling processes like fusion and budding. In the framework of this thesis, it was examined how viral fusion peptides, cellular solutes and cholesterol modulate the behavior of lipid structures. In a small angle X-ray scattering study on monoolein mesophases, it was explored how additives affect the diffusion of water between the interior of lipid structures and the excess water region after a pressure-induced lamellar-to-cubic phase transition. Cells of living organisms that are exposed to high hydrostatic and osmotic pressures usually contain trimethylamine-N-oxide (TMAO) in characteristic ratios to urea to prevent denaturation of proteins at extreme conditions. In this work, it was explored how the presence of these osmolytes affects membrane remodeling. Furthermore, the polymer polyethylene glycol was used to study the influence of molecular crowding in the packed cellular environment on membrane processes. It was found that urea and TMAO have counteracting effects on the equilibration dynamics of cubic monoolein phases and that molecular crowding can accelerate the dehydration of lipid structures. Another focus of this work was the investigation of fusogenic peptides of viral envelope proteins. Enveloped viruses enter cells via a protein-mediated membrane fusion process. Based on the observation of the influence of fusogenic peptides on cubic monoolein structures and the study of their adsorption and penetration behavior at phospholipid Langmuir monolayers with X-ray reflectometry and grazing incidence X-ray diffraction, their interaction mechanisms with membranes were characterized. A further segment of the thesis deals with the influence of cholesterol on the structure of phospholipid membranes at high hydrostatic pressure. The behavior of solid-supported model systems was compared to vesicles. It was found that low concentrations of cholesterol cause a pronounced negative compressibility perpendicular to the membrane surface. In contrast, membranes that incorporated a high amount of cholesterol were unresponsive to pressure resulting in a high stability of multilayers with a high cholesterol content on a solid substrate. Lipidmembranen sind ein essenzieller Bestandteil biologischer Zellen. Sie grenzen das Zellinnere von der Umgebung ab und unterteilen es in Kompartimente und Organellen. Um den Massenaustausch zwischen separierten Bereichen zu regulieren, durchlaufen sie strukturelle Umwandlungsprozesse wie Fusion und Knospung. Im Zuge dieser Arbeit wurde untersucht, wie virale Fusionspeptide, im Cytosol gelöste Stoffe und Cholesterin das Verhalten von Lipidstrukturen beeinflussen. In einem Röntgenkleinwinkelstreuexperiment an Monooleinmesophasen wurde analysiert, wie sich verschiedene Substanzen auf die Diffusion von Wasser zwischen dem Inneren und Äußeren von Lipidstrukturen nach druckinduzierter lamellar zu kubisch Phasenumwandlung auswirken. Zellen lebender Organismen, die hohen hydrostatischen und osmotischen Drücken ausgesetzt sind, enthalten häufig Trimethylamin-N-oxid (TMAO) in charakteristischen Mengenverhältnissen zu Harnstoff, um das Denaturieren von Proteinen bei extremen Bedingungen zu verhindern. Mithilfe des Experiments wurde untersucht, wie sich diese Osmolyte auf die Reorganisation von Membranen auswirken. Darüber hinaus wurde mit dem Polymer Polyethylenglycol der mit einer Vielzahl von Osmolyten und Makromolekülen gefüllte zelluläre Raum imitiert, um den Einfluss dieses dicht gedrängten Umfelds auf Membranprozesse zu beleuchten. Es konnte gezeigt werden, dass Urea und TMAO einen gegensätzlichen Effekt auf die Equilibrierungsdynamik kubischer Monooleinphasen haben und dass Umgebungsmoleküle die Dehydration von Lipidstrukturen beschleunigen können. Ein weiterer Schwerpunkt dieser Arbeit war die Untersuchung fusogener Peptide von viralen Hüllproteinen. Behüllte Viren dringen über einen Protein-vermittelten Membranfusionsprozess in Zellen ein. Durch die Beobachtung des Einflusses fusogener Peptide auf kubische Monooleinstrukturen und die Untersuchung ihres Adsorptions- und Eindringverhalten an Phospholipid Langmuirfilmen mittels Röntgenreflektometrie und Röntgendiffraktion unter streifendem Einfall konnten ihre Wechselwirkungsmechanismen mit Membranen charakterisiert werden. Ein weiterer Teil der Arbeit widmet sich dem Einfluss von Cholesterin auf die Struktur von Phospholipidmembranen unter hohen hydrostatischen Drücken. Dabei wird das Verhalten substratgebundener Modelsysteme mit dem von Vesikeln verglichen. Es wurde festgestellt, dass geringe Konzentrationen von Cholesterin zu einer ausgeprägten negativen Kompressibilität senkrecht zur Membranoberfläche führen, während sich die Struktur von Membranen mit einem hohen Cholesteringehalt bei Druckbelastung kaum ändert. Dies bewirkte eine hohe Stabilität von substratgebundenen Mehrschichtsystemen mit hohem Cholesteringehalt. 346 566 518 The evolution on the earth was developed under sunlight. The visual and circadian functions of the human body therefore depend on light to fulfil their tasks. Nowadays we spend the larger part of the day in enclosed spaces. The field of ergonomic and work science started working on the issues of health at the working space long time ago. In former regulations on the settings in offices the use of daylight and the contact to the outside was integrated. But in office spaces often we find deviating circumstances. The influence of daylight in offices more often is missing, artificial lighting systems can result in tiredness and less concentration as well as less performance, the shading devices result in more artificial lighting and restrict the view out. In the last decades more and more daylighting systems have been developed using the upper part of the window to make use of the natural light. Nevertheless the conflicting issues between the view out – which represents one key issue for high acceptance - and the necessity for solar protection against glare and overheating still exists. Many investigations have been carried out in the field of artificial lighting devices at working places, much less under daylit conditions and none representing the acceptance of different systems under sunny conditions and closed systems. This study therefore closes the gap between the framework of regulations and the preferred lighting conditions of the user. The complexity of perception has been used to get information on the acceptance and the potential of complex façade systems for the planning reality. The task group does not only include one discipline but integrates the aspects of all participants in the architectural planning process. Beyond the architects especially lighting designers and engineers are addressed who often are responsible for the energy efficiency and economy of buildings. But also investors and building owners, taking into account the cost efficiency of the building process and the maintenance costs, will find some hints regarding the productivity and acceptance of employees and therefore the economy as well. Within the framework of the joint project „Light in Office Buildings“ at the Department of Environmental Architecture at the University of Dortmund, Germany, and in co-operation with the Solar-Institut Jülich it was possible to set up test facilities for lighting measurements with, in total, nine different shading and light directing devices. The user acceptance studies for this PhD thesis have been carried out in Dortmund with six different systems. Extending the research project this study establishes the interface between the objective lighting monitoring program, the perception of the user and the resulting architectural quality. To fulfil the task of an interdisciplinary reader group the introduction therefore includes basic information on lighting issues, its interaction with the built environment and the effect on the human being. Furthermore current regulations and the assessment criteria for offices will be explained. The second part includes the analysis of existing studies on user acceptance in different lighting environments. The definition of this study’s task can be found in part three followed by the practical experiments with the description of the settings, the results of measurements and questionnaires and the complex analysing steps to statistically link objective data with the subjective perception. Furthermore part seven includes the development of an evaluation method for the planning reality. A discussion and the summary of results can be found at the end of the work. Tageslichtsysteme im Spiegel der Nutzer 347 181 226 Chemoinformatische Entwicklung von Naturstofffragmenten, sowie deren strukturbiologische und biochemische Evaluierung zur fragmentbasierten Inhibitorentwicklung Fragment-based drug discovery (FBDD) has proven to be a valuable method to find new inhibitory small molecules, but it mostly employs sp2-rich compounds and the community is intensively looking for new fragment collections to expand the explorable chemical space.1-4 Biologically validated natural products (NPs) are rich in stereogenic centers and populate areas of chemical space not occupied by average synthetic molecules.5 Therefore, a new algorithm was developed that successively degenerates natural products to natural product-derived fragments keeping their attachment points at natural positions. In this work a large set (> 180,000) of natural product structures was analyzed to arrive at ca. 2,000 natural product derived fragments which are structurally highly diverse, resemble the properties of NP scaffolds and NPs themselves and are rich in sp3-configured centers. The structures of these cluster centers differ from previously explored fragment libraries, but for nearly half of the clusters representative members are commercially available. We validate their usefulness for the discovery of novel ligand and inhibitor types by identification of novel fragments stabilizing the inactive conformations of p38a MAP kinase and inhibitors of several phosphatases. Die Fragmentbasierte Wirkstoffentwicklung (FBDD) hat sich als wertvolle Methode zur Detektion neuer Moleküle mit inhibitorischen Eigenschaften etabliert. Allerdings bestehen die derzeit üblicherweise verwendeten Fragment-Bibliotheken aus sp2-reichen Molekülen und es werden daher verstärkt Wege gesucht den erforschbaren chemischen Strukturraum zu erweitern.1-4 Biologisch validierte Naturstoffe sind reich an Stereozentren und decken einen Bereich des chemischen Strukturraums ab, der von im Allgemeinen genutzten synthetischen Molekülen nicht abgebildet wird.5 Daher wurde im Rahmen dieser Arbeit erfolgreich ein Algorithmus entwickelt, der in der Lage ist Naturstoffe zu Naturstofffragmeten zu reduzieren und dabei die wichtigen funktionellen Gruppen, sowie Anknüpf- bzw. Modifikationspunkte an ihrer natürlichen Position zu erhalten. Es wurde ein Datensatz mit über 180,000 annotierten Naturstoffen analysiert und eine repräsentative Bibliothek aus 2,000 von Naturstoffen abgeleiteten Fragmenten zusammengestellt, die die Eigenschaften aller generierten ~110,000 Naturstofffragmente und der ursprünglichen Naturstoffe widerspiegeln und reich sind an sp3-konfigurierten Stereozentren. Diese Strukturen unterscheiden sich erwartungsgemäß vom bisher untersuchbaren chemischen Strukturraum. Dennoch sind für ungefähr die Hälfte der virtuellen Bibliothek repräsentative Fragmente kommerziell verfügbar. Mit Hilfe dieser Naturstofffragmente konnten, auch bei etablierten Zielproteinen, bisher unbekannte inhibitorische Fragmente gefunden werden. Unter anderem wurde das Konzept durch die Identifizierung von neuen Inhibitoren der aktiven Form und neuartigen Stabilisatoren der inaktiven Form von p38a MAP Kinase validiert. Zudem konnten insgesamt 52 Fragmente als neuartige Phosphataseinhibitoren gefunden werden. 348 341 286 Higher-order corrections to the energy loss cross sections of high-energy muons In this thesis corrections to the energy loss cross sections of high-energy muons are calculated. Over a large part of the energy range investigated by very large volume neutrino telescopes such as IceCube, pair production and bremsstrahlung dominate the energy loss. The theoretical uncertainties on the energy loss cross sections influence the experimental results as systematic uncertainties. These corrections are important for the energy reconstruction of high-energy muons which are observed in particle and astroparticle detectors. The leading-order cross sections of bremsstrahlung and pair production have been parametrized with less approximations than in previous works. In the case of bremsstrahlung the differences are most pronounced at low muon energies, where bremsstrahlung is a very subdominant process, while at higher energies the difference to previous works is negligible. For pair production, the new parametrizations lead to changes of up to a percent to the cross section differential in the lost energy, and the differences are present at all energies. For bremsstrahlung, the next-to-leading-order (NLO) corrections have been calculated for the average energy loss and the differential cross section. The average energy loss is increased by about 2% in the high-energy limit due to these corrections. The relative effect on the differential cross section is independent of the energy of the muon in the approximation used here. The correction increases the cross section for large relative energy losses. For the inelastic nuclear interaction, NLO corrections have also been calculated. The correction to the cross section is also most pronounced for large relative energy losses; the correction is not independent of the muon energy for this process. For bremsstrahlung and pair production, Coulomb corrections, i. e. corrections to all orders in the coupling Zα to the electric field of the nucleus have been calculated and parametrized, taking into account the nuclear formfactor. The qualitative behavior has been predicted earlier by other authors using simplified models for the nuclear charge distribution; this is the first quantitative calculation of Coulomb corrections for realistic extended nuclei. In dieser Arbeit werden Korrekturen zu den Wirkungsquerschnitten der Energieverlustprozesse hochenergetischer Myonen berechnet. Die theoretischen Unsicherheiten auf die Wirkungsquerschnitte der Energieverlustprozesse beeinflussen experimentelle Ergebnisse als systematische Unsicherheiten. Die in dieser Arbeit bestimmten Korrekturen sind daher von Bedeutung für die Energierekonstruktion hochenergetischer Myonen, wie sie in Detektoren von Teilchenphysik- und Astroteilchenphysikexperimenten beobachtet werden. Der Energieverlust wird über einen Großteil des Energiebereichs großvolumiger Neutrinoteleskope, wie IceCube, durch Paarproduktion und Bremsstrahlung dominiert Die Wirkungsquerschnitte für Bremsstrahlung und Paarproduktion in führender Ordnung werden mit weniger Näherungen als in früheren Arbeiten parametrisiert. Im Falle der Bremsstrahlung sind die Unterschiede am bedeutendsten bei kleinen Energien, wo Bremsstrahlung ein subdominanter Prozess ist, während bei hohen Energien die Unterschiede zu früheren Arbeiten vernachlässigbar sind. Im Fall der Paarproduktion führt die neue Parametrisierung zu Unterschieden von bis zu etwa einem Prozent im in der verlorenen Energie differentiellen Wirkungsquerschnitt, die bei allen Energien auftreten. Strahlungskorrekturen werden für den mittleren Energieverlust und den differentiellen Wirkungsquerschnitt der Bremsstrahlung berechnet. Der mittlere Energieverlust von Myonen durch Bremsstrahlung steigt durch diese Korrekturen um etwa 2%. Der relative Effekt auf den differentiellen Wirkungsquerschnitt ist in der hier genutzten Näherung unabhängig von der Energie des Myons. Die Korrekturen erhöhen den Wirkungsquerschnitt für große relative Energieverluste. Ebenfalls wurden Strahlungskorrekturen für den Wirkungsquerschnitt der inelastischen nuklearen Wechselwirkung berechnet. Die Korrekturen sind auch in diesem Fall bei großen relativen Energieverlusten bedeutend, jedoch sind die Korrekturen in diesem Fall nicht unabhängig von der Myonenergie. Für Bremsstrahlung und Paarproduktion wurden Coulombkorrekturen, d. h. Korrekturen zu allen Ordnungen im Kopplungsparameter Zα zum elektrischen Feld des Kerns berechnet, wobei der nukleare Formfaktor berücksichtig wurde. Die qualitativen Eigenschaften der Ergebnisse stimmen mit früheren näherungsweisen Vorhersagen überein; diese Arbeit führt die erste quantitative Bestimmung von Coulombkorrekturen für realistische ausgedehnte Atomkerne durch. 349 157 124 "Verbetrieblichung" of continued education as trend? "Verbetrieblichung" von Weiterbildung als Zukunftstrend? 350 371 340 Single molecule imaging of the signaling activity of the epidermal growth factor receptor SUMMARY The epidermal growth factor receptor (ErbB1) is a receptor tyrosine kinase involved in various cellular processes, such as growth and differentiation. Its extracellular domains are capable of binding a range of ligands, including the epidermal growth factor (EGF). Parts of these extracellular domains, as well as the transmembrane domain and the juxtamembrane domain are involved in dimerization of the receptor. Upon ligand binding, the intracellular kinase domain forms an asymmetric dimer with the kinase of a second receptor, leading to autophosphorylation of several tyrosine and serine residues at the C-terminal tail, where effector proteins bind to propagate the signal. In this work the transient nature of receptor dimerization and clustering was visualized by tracking a fluorescently labeled receptor in living cells on a single molecule level. At the same time the activity of the receptor was monitored with a probe for phosphorylation. Even after activation, ErbB1 continuously switches between multiple short-lived mobility states, with diffusion coefficients that span two orders of magnitude, indicating that ErbB1 activation is a highly dynamic process. In resting cells the receptor is mainly monomeric arguing against a role of pre-dimerization in the activation of ErbB1. Upon stimulation with EGF, the receptor self-associates and localizes in highly active, immobile clusters that colocalize with clathrincoated pits. Thus, ErbB1 signaling is stabilized and amplified at the plasma membrane by recruitment of the receptors to clathrin-coated pits prior to endocytosis. However, the receptors are not necessarily trapped, as they maintain their ability to alternate between mobility states. Experiments with a kinase inhibitor and a kinase-dead mutant of ErbB1 showed that although receptors with an inactive kinase are able to convert to the immobile state, kinase activity is necessary for cluster formation. Experiments with a phosphatase inhibitor showed that ligand binding is not necessary for clustering of active ErbB1. In cells expressing the receptor at a low level, much of the ErbB1 activity is spatially confined to clathrin-coated pits on the plasma membrane, in contrast to the uniform activity observed in over-expressing cells. This clustering into highly active areas represents a potential mechanism for robust signaling from the plasma membrane at low expression levels of the receptor. Der EGF-Rezeptor (engl. epidermal growth factor), auch ErbB1 genannt, gehört zu den Rezeptor-Tyrosinkinasen und ist an verschiedenen zellulären Prozessen, wie der Proliferation und der Differenzierung, beteiligt ist. Die extrazellulären Domänen des Rezeptors können verschiedene Liganden binden, unter anderem EGF. Teile dieser extrazellulären Domänen, sowie die Transmembrandomäne und die Juxtamembran-Domäne spielen eine Rolle bei der Dimerisierung des Rezeptors. Nach Bindung eines Liganden bildet die intrazelluläre Kinasedomäne ein asymmetrisches Dimer mit der Kinase eines zweiten Rezeptors, wodurch die Autophosphorylierung verschiedener Serine und Tyrosine am C-terminalen Ende des Rezeptors stattfindet. Dort binden Effektorproteine, welche das Signal in die Zelle weiterleiten. In dieser Arbeit konnte der kurzlebige Charakter der Rezeptor-Dimerisierung und der Cluster- Bildung durch die Verfolgung fluoreszenzmarkierter Rezeptoren in lebenden Zellen auf Einzelmolekül-Ebene visualisiert werden. Gleichzeitig wurde die Aktivität des Rezeptors durch eine Sonde für den Phosphorylierungszustand verfolgt. Auch nach Aktivierung wechselt ErbB1 permanent zwischen mehreren kurzlebigen Mobilitätszuständen, deren Diffusionskoeffizienten einen Bereich von zwei Größenordnungen umfassen. Dies verdeutlicht, dass die Aktivierung von ErbB1 ein hochdynamischer Prozess ist. In unstimulierten Zellen liegt der Rezeptor hauptsächlich monomer vor, was gegen eine entscheidende Rolle der Vordimerisierung bei der Aktivierung von ErbB1 spricht. Nach Stimulierung mit EGF assoziieren die Rezeptoren und lokalisieren in hochaktiven, immobilen Clustern, welche mit Clathrinumhüllten Einstülpungen kolokalisieren. Demnach wird das Signal durch die Rekrutierung der Rezeptoren zu Clathrin-umhüllten Einstülpungen vor der Endozytose an der Membran stabilisiert und amplifiziert. Allerdings sind die Rezeptoren dort nicht unbedingt gefangen, da sie immer noch zwischen den Mobilitätszuständen wechseln können. Experimente mit einem Kinaseinhibitor und einer Kinase-inaktiven Mutante des Rezeptors zeigten, dass diese zwar den immobilen Zustand erreichen, aber dass für die Cluster-Bildung auch die Kinaseaktivität benötigt wird. Zudem zeigten Experimente mit einem Phosphataseinhibitor, dass die Bindung eines Liganden für die Cluster-Bildung aktiver ErbB1 Rezeptoren nicht notwendig ist. In Zellen mit geringem Expressionslevel von ErbB1, ist die meiste Aktivität des Rezeptors räumlich beschränkt in Clathrin-umhüllten Einstülpungen zu finden, wohingegen eine gleichmäßige Verteilung der Aktivität bei Überexpression beobachtet wird. Die Anhäufung in hochaktiven Membranbereichen beschreibt einen möglichen Mechanismus, um bei geringem Expressions-level des Rezeptors eine stabile Signalweiterleitung zu gewährleisten. 351 394 348 Analyse eines membranunterstützten Reaktivrektifikationsverfahrens zur Umesterung von Methylacetat mit Butanol The combination of reactive distillation and membrane separation to an integrated hybrid process represents another step towards intensified production in chemical industry. Previous research on this topic is mainly focussed on certain aspects of the combined process or based on simple modelling strategies that do not allow for a scale-up to industrial dimensions. This work is dealing with a detailed analysis of the behaviour of a membrane assisted reactive distillation process with advanced modelling tools to develop a concept for the design and optimisation of such processes. The transesterification of methyl acetate with butanol to butyl acetate and methanol has been chosen as an example, since the resulting integrated process has some industrial relevance in the chemical recovery of side products from and thus contribute to an improved sustainability of PVA production. In addition, suitable experimental data is available in literature to derive the required model parameters and to validate the developed simulation tool. To cope with the complexity of the integrated process, the main steps reactive distillation and membrane separation were investigated separately at the beginning. Therefore suitable models, which describe the process behaviour on a physical basis, have been selected from an existing model library and adapted to the special requirements of the process example. Special attention has been paid on keeping the influence of the system, the process, and the equipment separate to allow for a reliable transfer from laboratory to industrial scale. Research on the individual process steps include the adaptation of existing models, the determination of suitable model parameters and the validation of the simulation tool on the basis of experimental data from literature. The final analysis, design and optimisation of the integrated process are based on a decoupling of the different steps by using the purity in the recycled retentate stream as a key value. This allows for a separate analysis of the different steps without neglecting the influence of their mutual interdependency on the process behaviour. The definition of additional boundary conditions and the consideration of operating costs lead to a selection of the best membrane material as well as to the optimum purity in the recycle stream. The proposed procedure offers the possibility to describe the process behaviour of membrane assisted reactive distillation processes in a reliable way and thus to assess their potential for process intensification. Transferring the strategy to different hybrid process can further Die Kopplung von Reaktivrektifikation und Membrantrennung zu einem reaktiven hybriden Trennverfahren stellt einen weiteren Schritt auf dem Weg zu einem intensivierten Produktionsprozess in der chemischen Industrie dar. Bisherige Arbeiten auf diesem Gebiet beschränken sich bislang auf eine Betrachtung einzelner Teilaspekte des kombinierten Prozesses oder basieren auf Modellierungsansätzen, die keine Übertragung auf den industriellen Maßstab ermöglichen. In der vorliegenden Arbeit wird daher das Prozessverhalten eines reaktiven Hybridverfahrens mit Hilfe aktueller Modellierungswerkzeuge analysiert und ein Konzept zur Auslegung und Optimierung eines solchen Verfahrens entwickelt. Zur Erläuterung der einzelnen Schritte wurde als Beispielprozess ein Verfahren zur Umesterung von Methylacetat mit Butanol zu Butylacetat und Methanol ausgewählt, da sich dieses Verfahren zur Aufbereitung von Nebenprodukten aus der PVA-Herstellung eignet und damit eine technische Relevanz besitzt. Zudem stehen für diesen Prozess experimentelle Literaturdaten zur Bestimmung der notwendigen Modellparameter und Validierung der Simulationswerkzeuge zur Verfügung. Um der Komplexität des Verfahrens Rechnung zu tragen, wurden die einzelnen Prozessschritte Reaktivrektifikation und Membrantrennung zunächst getrennt untersucht. Dabei wurden geeignete physikalisch fundierte Modelle aus einer bestehenden Bibliothek ausgewählt und den veränderten Prozessbedingungen angepasst. Im Vordergrund stand dabei immer die getrennte Berücksichtigung von system-, prozess- und anlagenspezifischen Einflüssen, um eine Übertragung der Arbeitsergebnisse vom Labor auf den industriellen Maßstab zu ermöglichen. Die Arbeiten zu den einzelnen Verfahren umfassen dabei, neben der Modifikation bestehender Prozessmodelle, die Bestimmung der notwendigen Modellparameter sowie eine Validierung des Simulationswerkzeuges anhand von experimentellen Literaturdaten. Um eine Auslegung und Optimierung des Verfahrens zu ermöglichen, wurden die beiden Prozessschritte über die Definition einer Übergabereinheit entkoppelt. Auf diese Weise konnte das Prozessverhalten der einzelnen Verfahrensschritte getrennt analysiert und deren Wechselwirkungen dennoch berücksichtigt werden. Durch die Definition zusätzlicher Randbedingungen wurde auf der Basis von Prozesskosten sowohl die Auswahl eines geeigneten Membranmaterials als auch die Bestimmung der optimalen Übergabereinheit vorgenommen. Damit bietet sich die Möglichkeit, Prozesse, die auf einer Kombination von Reaktivrektifikation und Membrantrennung basieren, zuverlässig zu beschreiben und ihr Potenzial zur Intensivierung chemischer Produktionsprozesse zu beurteilen. Der in dieser Arbeit skizzierte Weg lässt sich auch auf andere integrierte Verfahren übertragen und leistet so einen Beitrag zur Intensivierung chemischer Produktionsprozesse. 352 137 136 Factors of success for the manufacturing teams' achievement Teamwork as an efficient type of work-organization in manufacturing is increasingly applied by advanced industial-companies. In former studies the performance of manufacturing teams is only examined as dependent of work organization and task structure, therefore the deviation between the performance of different teams can t be explained by these studies. The present study was dedicated to the objective of developing a comprehensive model in order to explain the target-achievement of manufacturing teams including its empirical quantitative testing. The evaluation procedure of the model included surveying data from 723 production workers and 105 team leaders by an employeequestionnaire and subsequent application of structural equitation modeling software. The results confirm the hypothesized influences included in the model to a large degree. Implications of this study for future research are being discussed. Erfolgsfaktoren für die Zielerreichung von Fertigungsteams 353 56 49 Voronoizellen diskreter Punktmengen This thesis gives a characterization of those discrete point sets which exhibit the property that all its Voronoi cells are polyhedra (resp. polytopes). To do this we introduce the term of locally finitely generated discrete point sets. Furthermore we investigate the boundary of the convex hull of a discrete point set and give a geometrical description. In dieser Arbeit wird eine Charakterisierung derjenigen diskreten Punktmengen angegeben, für die gilt, dass alle Voronoizellen Polyeder (bzw. Polytope) sind. Dazu wird der Begriff einer lokal endlich erzeugten diskreten Punktmenge eingeführt. Desweiteren wird der Rand der konvexen Hülle einer diskreten Punktmenge näher untersucht und geometrisch beschrieben. 354 712 617 Modellierung von Kapitalmarktrenditen mittels asymmetrischer GARCH-Modelle The available thesis contemplates the modeling of returns of financial markets using asymmetric GARCH processes. In particular the characteristics of the A-PARCH model as well as its extensions are examined. This model not only allows for modeling volatility clustering and leptocurtosis like the GARCH model. It is suitable to reproduce the characteristic of asymmetry as well. Furthermore, conditional volatilities can be described as none-integer-numbered power by the absolute value of the observations. However, long memory in the conditional volatilities cannot be modeled by an A-PARCH process since their autocorrelation function decays exponentially but not hyperbolically.First a comparison of model fits for returns of asset prices is accomplished. In relation to other symmetrical and asymmetrical GARCH processes the A-PARCH process with conditional t-distribution exhibits the smallest values for SBC (Schwarz-Bayes information criterion) as well as for the measure for the forecast quality MSPE (mean square prediction error). Thus, it is preferred by modeling structures of these capital market data.Moreover, the leverage hypothesis is examined as a possible cause for asymmetry in financial market data by symmetrical and asymmetrical GARCH models. Thereby, the value for SBC is inspected for model fits of asset returns and exchange rates as well as for precious metal prices and interest rates. The respective preference of symmetrical or asymmetrical models for the described data supports the plausibility of the leverage hypothesis. This effect should be accounted for model selection, i.e. for symmetrical vs. asymmetrical approach, even though there is still no final statement about the validity of this hypothesis. Therefore, asymmetrical models should be used only for data, for which it is reasonable to imply a leverage effect.In order to be able to reproduce long memory as characteristic of financial market returns, there are several extensions of the original GARCH approach. In the available work the FI-A-PARCH model as well as its special case FIGARCH are considered. These results by suitable adding of the fractional difference operator (1 - B)d from A-PARCH and GARCH models, respectevly. However, an approximation of this operator is necessary for practical implementation of these models using binomial series. But there are hardly concrete statements about the number of observations, which have to be used in this approximation, up to now. Therefore, the parameter estimations in FI-A-PARCH models are examined as a function of this observation number. It can be observed that the values of the estimations for these model fits stabilize from a value of approx. 300 observations. Based on this result, it is recommended to use a number of 300 observations for the estimation of (1 - B)d at similar problems.Although the FI-A-PARCH process was developed to model long term dependence, its conditional volatilities does not possess the characteristic of long memory in the sense that the autocorrelation function decays hyperbolically. Since the second moments are infinite similarly to those of the FIGARCH process, the appropriate autocorrelation function does not exist. In a further comparison of model fits using MSPE the FI-A-PARCH process with conditional t-distribution is not preferred in every case. However, the smallest value for SBC were obtained using this model. Thus it can be regarded as a reasonable addition of the models presented before.A model, which allows for reproduction of long memory in the conditional volatilities, is the Hyperbolic GARCH model. However, it cannot describe asymmetry. Thus, in this work the A-PARCH model is extended to the Hyperbolic A-PARCH model analogous to the derivation of the HYGARCH model. Characteristics of this model can be derived among other things using Volterra series expansion with Asymmetric Power GARCH models. The existence of the second moments is shown as well as the appropriate necessary condition is derived. Further the presence of long memory in the transformation {(|yt| - yt)d} of the hyperbolic A-PARCH-process {yt} is proved. However, for the process {|yt|d}, which represents the conditional volatilities, up to now no conclusion can be derived about the autocorrelation structure. Thus, the HY-A-PARCH model allows for description of the characteristics for volatility clustering, leptocurtosis and asymmetry as well as the presence of long memory at least for a transformation of the conditional volatilities. The proof of long memory in the series {|yt|d} of HY-A-PARCH processes at first remains for future research. The method of Appell polynomials is suggested as approach for solution of this problem. In der vorliegenden Arbeit wird die Modellierung von Kapitalmarktrenditen mittels asymmetrischer GARCH-Prozesse betrachtet. Insbesondere werden die Eigenschaften des A-PARCH-Modells sowie seiner Erweiterungen untersucht. Dieses Modell ermöglicht nicht allein die Modellierung von Volatilitätsschwankungen und Hochgipfligkeit wie das GARCH-Modell. Es ist ebenso geeignet, das Charakteristikum der Asymmetrie nachzubilden. Ferner können bedingte Volatilitäten als nichtganzzahlige Potenz vom Absolutbetrag der Beobachtungen beschrieben werden. Langes Gedächtnis in den bedingten Volatilitäten kann durch einen A-PARCH-Prozeß jedoch nicht modelliert werden, da ihre Autokorrelationsfunktion exponentiell und nicht hyperbolisch abfällt.Zunächst wird ein Vergleich von Modellanpassungen für Renditen von Aktienkursdaten durchgeführt. Dabei weist der A-PARCH-Prozeß mit bedingter t-Verteilung gegenüber anderen symmetrischen und asymmetrischen GARCH-Prozessen die kleinsten Werte für das Informationskriterium SBC (Schwarz-Bayes-Informationskriterium) sowie für das Maß für die Vorhersagegüte MSPE (mittlerer quadratischer Prognosefehler) auf. Er wird somit bei der Modellierung von Strukturen dieser Kapitalmarktdaten bevorzugt.Weiter wird die Hebelwirkungshypothese als mögliche Ursache für Asymmetrie in Kapitalmarktdaten mittels symmetrischer und asymmetrischer GARCH-Modelle untersucht. Unter anderem wird dabei für Modellanpassungen an Renditen von Aktien- und Wechselkursdaten sowie Edelmetallpreisen und Zinssätzen der Wert für SBC betrachtet. Die jeweilige Bevorzugung von symmetrischen bzw. asymmetrischen Modellen für die Anpassung an die beschriebenen Kapitalmarktrenditen stützt die Plausibilität der Hebelwirkungshypothese. Obwohl es auch weiterhin keine endgültige Aussage über die Gültigkeit dieser Hypothese gibt, sollte ihr bei der Modellauswahl, d.h. symmetrischer gegenüber asymmetrischem Ansatz, Rechnung getragen werden. Asymmetrische Modelle sollten demnach nur für Daten verwendet werden, für die das Zugrundeliegen einer Hebelwirkung sinnvoll ist.Um langes Gedächtnis als Eigenschaft von Kapitalmarktrenditen nachbilden zu können, gibt es verschiedene Erweiterungen des ursprünglichen GARCH-Ansatzes. In der vorliegenden Arbeit wird das FI-A-PARCH-Modell sowie sein Spezialfall FIGARCH betrachtet. Diese ergeben sich aus A-PARCH- bzw. GARCH-Modellen durch geeignetes Hinzufügen des fraktionalen Differenzenoperators (1 - B)d. Zur praktischen Umsetzung dieser Modelle ist jedoch eine Abschätzung dieses Operators mittels binomischer Reihe notwendig. Über die in dieser Abschätzung zu verwendende Anzahl von Beobachtungen gibt es jedoch bisher kaum konkrete Aussagen. Daher werden Parameterschätzungen in FI-A-PARCH-Modellen in Abhängigkeit von dieser Beobachtungszahl betrachtet. Es kann festgestellt werden, daß sich die Werte der Schätzungen für die vorliegenden Modellanpassungen etwa ab einem Wert von 300 Beobachtungen stabilisieren. Basierend auf diesem Ergebnis wird empfohlen, für ähnliche Probleme eine Anzahl von ca. 300 Beobachtungen für die Abschätzung von (1 - B)d zu verwenden.Obwohl der FI-A-PARCH-Prozeß zur Modellierung von langem Gedächtnis entwickelt wurde, besitzen seine bedingten Volatilitäten nicht die Eigenschaft langen Gedächtnisses in dem Sinne, daß die Autokorrelationsfunktion hyperbolisch fällt. Da die zweiten Momente analog zu denen des FIGARCH-Prozesses unendlich sind, existiert die betrachtete Autokorrelationsfunktion nicht. In einem weiteren Vergleich von Modellanpassungen nach MSPE wird der FI-A-PARCH-Prozeß mit bedingter t-Verteilung zwar nicht in jedem Fall bevorzugt, er erzielt jedoch jeweils die kleinsten Werte für SBC und kann somit als sinnvolle Ergänzung der zuvor vorgestellten Modelle angesehen werden.Ein Modell, welches die Nachbildung von langem Gedächtnis in den bedingten Volatilitäten ermöglicht, ist das Hyperbolische GARCH-Modell. Jedoch kann damit keine Asymmetrie beschrieben werden. Analog zur Herleitung des HYGARCH-Modells wird daher in der vorliegenden Arbeit das A-PARCH-Modell zum Hyperbolischen A-PARCH-Modell erweitert. Eigenschaften dieses Modells können unter anderem mittels Volterra-Reihenentwicklung von Asymmetrischen Power-GARCH-Modellen hergeleitet werden. Die Existenz der zweiten Momente wird gezeigt sowie die dazu notwendigen Bedingungen hergeleitet. Weiterhin kann das Vorliegen von langem Gedächtnis in der Transformation {(|yt| - yt)d} des Hyperbolischen A-PARCH-Prozesses {yt} nachgewiesen werden. Für den Prozeß {|yt|d}, welcher die bedingten Volatilitäten repräsentiert, kann daraus zunächst jedoch keine Aussage über die Autokorrelationsstruktur abgeleitet werden. Das HY-A-PARCH-Modell ermöglicht also die Beschreibung der Charakteristika Volatilitätsschwankungen, Hochgipfligkeit und Asymmetrie sowie das Vorliegen von langem Gedächtnis zumindest für eine Transformation der bedingten Volatilitäten. Der Nachweis von langem Gedächtnis in der Reihe {|yt|d} von HY-A-PARCH-Prozessen bleibt somit zunächst der künftigen Forschung vorbehalten. Als Ansatz zur Lösung dieses Problems wird die Methode der Appell-Polynome vorgeschlagen. 355 297 300 Artifizielle Metalloenzyme in organischen Medien The aim of this work was the generation of artificial metalloenzymes (AMEs) for use in organic solvent systems and the optimization of such reactions. The asymmetric dihydroxylation of styrene with Osmate-laccase-PMOx as AME was studied in detail to find more suitable reaction conditions for this reaction. By optimizing different reac-tion parameters, it was possible to increase the turnover frequency up to 48-fold compared to the previously used reaction system and to achieve high enantiomeric excesses of up to 99.4% ee (R) of the reaction product. The reaction can also be catalyzed under the usage of other metal species, especially KMnO4 and iron chloride. In addition, other styrene derivatives could be converted with different AMEs. Thereby turnover and selectivity of the reaction strongly depends on both the AME and the solvent system used. Furthermore a tandem catalytic dihydroxylation with subsequent esterification could be suc-cessfully performed by immobilized Osmat-modified lipase from Candida antarctica as well as by Os-lipase-PMOx. Further investigations suggest that this reaction is an auto-tandem cataly-sis. The proportion of in situ formed intermediate 1-phenyl-1,2-ethanediol in the product mix-ture is less than 5% in all cases. In addition, proteins and enzymes have been converted into highly selective and active AMEs for asymmetric dihydroxylation and epoxidation of styrene and its derivatives by targeted ac-ylation of the primary amino groups of these biomolecules and thus blocking of these potential metal-binding sites. Thereby it could be shown on the example of the asymmetric epoxidation that lysozyme from egg white as well as bovine serum albumin possess different enantioselec-tive directing binding sites for catalytically active metal species. This demonstrates that pro-teins are very rich in different chiral domains suitable for complexation with various catalytical-ly active metal species and underlines the great potential of such systems in the development of novel asymmetric catalysts. Ziel dieser Arbeit war die Generierung artifizieller Metalloenzyme für den Einsatz in rein orga-nischen Lösungsmittelsystemen sowie die Optimierung solcher Reaktionssysteme. Es wurde zunächst die asymmetrische Dihydroxylierung von Styrol unter Verwendung von Osmat-Laccase-PMOx als artifizielles Metalloenzym (AME) im Detail untersucht, um günstigere Reaktionsbedingungen für diese Umsetzung zu ermitteln. Durch die Optimierung verschiede-ner Reaktionsparameter konnte ein bis zu 48-facher Anstieg der turnover frequency im Ver-gleich zum zuvor verwendeten Reaktionssystem erreicht werden. Zudem wurden sehr hohe Enantiomerenüberschüssen von bis zu 99,4 % ee (R) des Reaktionsproduktes1-Phenyl-1,2-ethandiol erhalten. Die Dihydroxylierung von Styrol lässt sich auch unter Verwendung weiterer Metallspezies, insbesondere Kaliumpermanganat und Eisenchlorid, erfolgreich katalysieren. Des Weiteren konnten auch mehrere weitere Styrolderivate unter Verwendung unterschiedli-cher AMEs erfolgreich umgesetzt werden. Dabei hängen Umsatz sowie Selektivität der Reakti-on stark sowohl vom verwendeten AME als auch Lösungsmittelsystem ab. Im Rahmen dieser Arbeit konnte weiterhin eine tandemkatalytische Dihydroxylierung mit an-schließender Veresterung sowohl mit Hilfe von immobilisierter, Osmat-modifizierter Lipase aus Candida antarctica (Os-CaLB) als auch mittels Os-Lipase-PMOx erfolgreich durchgeführt wer-den. Weiterführende Untersuchungen legen nahe, dass es sich hierbei um eine Auto-Tandemkatalyse handelt. Der Anteil des in situ gebildeten Zwischenproduktes 1-Phenyl-1,2-ethandiol im Produktgemisch beträgt dabei in allen Fällen weniger als 5 %. Zudem wurden verschiedene Proteine und Enzyme über eine gezielte Acylierung der primären Aminogruppen dieser Biomoleküle, und somit deren Blockierung als potenziell nicht enantiose-lektiv dirigierende Metallbindungsstellen, in hochselektive und -aktive AMEs für die asymmet-rische Dihydroxylierung sowie Epoxidierung von Styrol und seinen Derivaten konvertiert. Hier-bei konnte am Beispiel der asymmetrischen Epoxidierung gezeigt werden, dass Lysozym aus Hühnereiweiß sowie Rinderserumalbumin mit hoher Wahrscheinlichkeit mehrere enantiose-lektiv dirigierende Bindungsstellen für katalytisch aktive Metallspezies besitzen. Dies verdeut-licht, dass Proteine sehr reich an unterschiedlichen chiralen Bereichen sind, die sich zur Kom-plexierung mit verschiedenen katalytisch aktiven Metallspezies eignen und unterstreicht das große Potential solcher Systeme bei der Entwicklung neuer asymmetrischer Katalysatoren. 356 188 140 Teamwork, team s measurement systems and management of working time Zielvereinbarungen, ergebnisbezogene Informationssysteme und zeitverantwortliche Gruppen 357 226 199 Gewerbliche Elektrofahrzeuge - Integration in das Energiesystem und wirtschaftliche Ladestrategien für Flotten Almost 10 years after the publication of the National Development Plan for Electric Mobility, the number of battery electric vehicles and plug-in hybrids is around 100,000 and thus 10% of the German government's target for 2020. The commercial transport sector, with a total of around 6 million vehicles of passenger cars and light commercial vehicles, has the prerequisites to represent an entry segment and to drive market integration forward more strongly, thus justifying the focus of this work. First, the technical potential of a complete electrification of these two vehicle types at the system level of the German energy system will be quantitatively evaluated. This includes the energy-technical behaviour and the interaction with the feed-in characteristics of supply-dependent plants of renewable energy as well as the resulting storage demand. The seasonal and weekday-specific energy and load profiles used for this purpose are derived from the trip data records of the traffic study Kraftfahrzeuge in Deutschland. The economic potential of using a charging strategy in fleet operation will then be investigated with the aim of reducing the overall costs of electrification and thus increasing the amount early adopters of electric mobility. A method for the monetary evaluation of an arbitrary charge control will be designed. The latter is simulated based on an optimization algorithm. In one application the cost reduction potential of a specific fleet is presented. Fast 10 Jahre nach Veröffentlichung des Nationalen Entwicklungsplan Elektromobilität liegt der Bestand an batterieelektrischen Elektrofahrzeugen und Plug-In Hybriden bei ca. 100.000 und damit bei 10 % des Ziels der Bundesregierung für das Jahr 2020. Der gewerbliche Verkehrssektor mit insgesamt ca. 6 Mio. Fahrzeugen an Pkw und leichten Nutzfahrzeugen verfügt über Voraussetzungen ein Eintrittssegment darzustellen und die Marktintegration stärker voranzutreiben, und begründet dadurch den Fokus dieser Arbeit. Zunächst wird das technische Potential einer vollständigen Elektrifizierung dieser beiden Fahrzeugtypen auf Systemebene des Energiesystems in Deutschland quantitativ bewertet. Dazu gehören das energietechnische Verhalten sowie die Interaktion mit der Einspeisecharakteristik von dargebotsabhängigen Erzeugern von erneuerbarer Energie. Die dafür verwendeten saisonalen und wochentagspezifischen Energie- und Lastprofile werden aus den Fahrt-Datensätzen der Verkehrsstudie Kraftfahrzeuge in Deutschland abgeleitet. Anschließend wird das wirtschaftliche Potential der Nutzung einer Ladestrategie im Flottenbetrieb untersucht, mit dem Ziel die Gesamtkosten der Elektrifizierung zu senken und so den Anteil an Erstnutzern der Elektromobilität zu erhöhen. Es wird eine Methode zur monetären Bewertung einer Ladesteuerung konzipiert. Dabei wird das gesteuerte Laden basierend auf einem Optimierungsalgorithmus mit einer konfigurierbaren Zielfunktion simuliert. In einem Anwendungsfall wird das Kostensenkungspotential von einer spezifischen Flotte ermittelt. 358 106 86 Approaches for efficient and effectiv instruments for cultural cooperation in international business Ansätze für ein effizientes und effektives Instrumentarium zur kulturellen Gestaltung der Zusammenarbeit in internationalen Unternehmenskooperationen Despite an increasing importance of international business cooperations for a company s success, a high percentage of their failures can be traced back to problems of cultural clash. The article therefore seeks to explore new approaches to design a tool-box for the cultural collaboration in international business cooperations. Based on a qualitative evaluation of existing methods of corporate culture design, as e.g. cultural fit analysis or cultural due diligence, according to their efficiency and effectiveness when applying them to the cooperation context, the article presents a set of hypotheses for their adaptation and improvement. Während die Bedeutung internationaler Kooperationen für den Unternehmenserfolg zunimmt, kann ihr häufiges Scheitern vielfach auf kulturelle Probleme zurückgeführt werden. Der Artikel sucht daher nach Ansätzen für ein Instrumentarium zur kulturellen Gestaltung der Zusammenarbeit in internationalen Unternehmenskooperationen. Auf Basis einer qualitativen Bewertung existierender Methoden zur Unternehmenskulturgestaltung, wie z.B. Cultural-Fit-Analyse oder Cultural Due Diligence, hinsichtlich ihrer Effizienz und Effektivität bei der Übertragung auf Kooperationen werden Vorschläge zur Anpassung und Verbesserung dieser Instrumente entwickelt. 359 180 162 Die Auswirkung der neuen Informations- und Kommunikationstechnologien auf die Beschäftigung Jobless Growth? In diesem Beitrag werden die wichtigsten vorliegenden Prognosen zu den Auswirkungen der neuen Informations- und Kommunikationstechnologien (IuK) auf die Beschäftigung analysiert und miteinander verglichen. Neben der methodischen Anlage der Untersuchungen werden vor allem die Annahmen der Prognosen, die Indikatoren für die Diffusionstheorien der Verfasser sind, thematisiert. Den Prognosen liegen implizit oder explizit Theorien über die Diffusion der neuen IuK zugrunde. Wenn es sich nur um einen inkrementalen technischen Fortschritt handelt, der innerhalb der bestehenden Strukturen umgesetzt werden kann, sind einfache Diffusionstheorien hinreichend, die wie klassische ökonomische Theorien zum technischen Wandel davon ausgehen, daß eine hohe Preiselastizität der Nachfrage besteht und sich neue Produkte und Dienstleistungen vor allem über Preissenkungen verbreiten. Es wird gezeigt, daß die Auswirkungen der IuK nur mit komplexeren Diffusionstheorien erkannt werden können, da es sich um eine technische Revolution handelt. Bei technischen Revolutionen werden gesellschaftliche Institutionen grundlegend verändert, und es bedarf neuer Paradigmen etwa bei der Organisation von Arbeit. 360 130 95 Talking with employees returning from ill-related absenteeism: An effective strategy of workplace health promotion (?) Talking with employees returning from ill-related absenteeism widely takes place in the practice of work health promotion. Its positive effect is often announced while the social mechanisms of its impact is still unknown. The article discusses implications of different practical variations and finally outlines the basic assumptions of the non repressive concept implemented by 'Wirtschaftsbetriebe Oberhausen'. This concept basically aims at inventing and stabilizing the healthful power of social supportive structures between employees and superiors. The article presents the main results of an evaluating study covering the implementation process: Such non repressive talks can help intensifying the relationship between employee and superior while their impact in work health promotion projects still have to be discussed. Rückkehrgespräche 361 135 110 Auswirkung hoher hydrostatischer Drücke auf Modellipidmembranen, Proteine und proteinmimetische Polymere In this doctoral thesis, the effects of high hydrostatic pressure on model lipid membranes, proteins and protein-mimetic polymers/hydrogels were investigated. As model membranes, the mixtures DPPC-Ergosterol (78:22 mol-%) and DOPC-DPPC-Cholesterol (1:2:1), both in excess water, were used and the respective thermotropic and barotropic phase transitions determined via infrared spectroscopy. Using all the obtained data, it was possible to establish p,T-phase diagrams for both mixtures. Furthermore, the temperature and pressure stability of the peroxidase MsP1 from the basidomycete fungus Marasmius scorodonius was explored using various spectroscopic techniques. In addition, the pressure stability of the ankyrin domain of the Notch receptor from Drosophila melanogaster in dependence of the concentration of 13C-urea was examined by infrared spectroscopy. Finally the temperature and pressure behaviour of polymers and microgels consisting of poly(N-isopropylacrylamide) and poly(N,N-diethylacrylamide) was studied via infrared spectroscopic analysis. In dieser Arbeit wurden die Auswirkungen hohen hydrostatischen Drucks auf Modellipidmembranen, Proteine und proteinmimetische Polymere/Hydrogele untersucht. Als Modellbiomembranen kamen die Gemische DPPC-Ergosterin (78:22 mol-%) und DOPC-DPPC-Cholesterin (1:2:1), jeweils in Überschußwasser, zum Einsatz, deren thermotrope und barotrope Phasenübergänge infrarotspektroskopisch analysiert wurden. Hieraus wurden entsprechende p,T-Phasendiagramme erstellt. Ferner wurde die Temperatur- und Druckstabilität der Peroxidase MsP1 aus dem Basidomyceten Marasmius scorodonius mit verschiedenen spektroskopischen Techniken untersucht und außerdem die Druckstabilität der Ankyrindomäne des Notch-Rezeptors aus Drosophila melanogaster in Abhängigkeit verschiedener Konzentrationen von 13C-Harnstoff infrarotspektroskopisch bestimmt. Abschließend wurden Polymere und Mikrogele aus Poly(N-isopropylacrylamid) und Poly(N,N-diethylacrylamid) auf ihr Temperatur- und Druckverhalten mittels Infrarotspektroskopie getestet. 362 352 322 Synthese und kolloidchemische Untersuchung von zweidimensionalen Mikrogelen For the first time, the synthesis and properties of „two-dimensional microgels” („2D-microgels” or „microgel particles”) are described. A 2D-microgel is a chemically cross-linked, ultrathin polymer network at an interface with a colloidal dimension. Such new amphiphilic systems have great potential for the development of switchable membranes, new surfactants and emulsifiers, nanocarries, Janus beads, microcapsules and other colloidal „controlled-release” systems. The 2D-microgels were produced by the polymerization of amphiphilic monomers at the interface between oil and water. As amphiphilic monomers n-octadecyltrichlorosilane or similiar silane compounds were used. Due to their ambivalent surface, the microparticles produced this way can be called "janus particles" because one side is hydrophilic while the other one is hydrophobic. Therefore, it is to be expected that these microgel particles could be used for emulsion stabilization. As a result, the investigation of the properties of these special microgels was focused on the applicability of these particles for the stabilization of emulsions in particular. First, rheology and tensiometry were used to determine the threshold concentration (or critical interfacial concentration Γ0) of the silanes in terms of the two-dimensional sol-gel transition. The threshold concentration is the minimal concentration at which closed films are formed. Below this concentration microgels can be obtained (microgel range). Thus, an interfacial concentration of 1 molecule/nm² could be used for the preparation of the microgels. A wide range of different methods was used to characterize these colloidal systems. Using Brewster angle microscopy, optical microscopy and electron microscopy (SEM, TEM), the ultra-thin microgels were visualized at the water/air as well as at the water/oil interface. It could be observed that two-dimensional fractal aggregates were formed. The production of those structures can be predicted by percolation theory and corresponding computer simulations of the macromolecular systems. The fractal microgels consist of self-similar small disks. The investigation of the interfacial tension of liquid/liquid interfaces showed a significant decrease of the interfacial tension when 2D-microgels are applied to the interface. Using a microfluidic apparatus and a dispersing device, emulsions were prepared and examined microscopically and rheologically. The 2D-microgels showed an emulsion stabilizing effect. It was remarkable that the emulsions showed dominant elastic properties. In dieser Arbeit werden zum ersten Mal die Synthese und die Eigenschaften „zweidimensionaler Mikrogele“ („2D-Mikrogele“ bzw. „Mikrogelpartikel“) beschrieben. Ein 2D-Mikrogel ist ein ultradünnes Polymernetzwerk mit kolloidaler Dimension an der Phasengrenzfläche, welches chemisch quervernetzt ist. Derartige neue amphiphile Systeme besitzen ein großes Potenzial bezüglich der Entwicklung von schaltbaren Membranen, neuen Tensiden und Emulgatoren, Nanocarries, „Janus-beads“, Mikrokapseln und anderen kolloiden „Controlled-release“-Systemen. Die 2D-Mikrogele wurden durch die Polymerisation von amphiphilen Monomeren an der Grenzfläche zwischen Öl und Wasser hergestellt. Als amphiphile Monomere wurden n-Octadecyltrichlorsilan oder andere ähnliche Silanverbindungen verwendet. Die auf diese Weise hergestellten Mikrogelpartikel können auch als „Janus-Partikel“ bezeichnet werden, da sie eine hydrophile und eine hydrophobe Oberfläche aufweisen. Aufgrund dieses asymmetrischen Aufbaus ist zu erwarten, dass diese Mikrogele zur Emulsionsstabilisierung dienen könnten. Bei der Untersuchung der Eigenschaften dieser speziellen Mikrogele lag daher ein besonderer Schwerpunkt auf der Anwendbarkeit dieser Partikel zur Stabilisierung von Emulsionen. Zunächst wurde mittels der Rheologie und der Tensiometrie die Schwellenkonzentration (bzw. kritische Grenzflächenkonzentration Γ0) der Silane bezüglich des zweidimensionalen Sol-Gel-Übergangs bestimmt. Die Schwellenkonzentration ist die Konzentration, unterhalb der sich kein geschlossener Film, sondern zweidimensionale Mikrogele ausbilden (Mikrogelbereich). Für die Herstellung der Mikrogele wurde eine Grenzflächenkonzentration von 1 Molekül/nm2 gewählt. Zur Charakterisierung dieser kolloidalen Systeme wurde eine breite Palette unterschiedlicher Messmethoden verwendet. Mittels Brewsterwinkel-Mikroskopie, Videomikroskopie und der Elektronenmikroskopie (REM, TEM) wurden die ultradünnen Mikrogele sowohl an der Wasser/Luft- als auch an der Wasser/Öl-Grenzphase visualisiert. Es konnte beobachtet werden, dass sich zweidimensionale, fraktale Aggregate bildeten. Die Herstellung derartiger Strukturen wird von der Perkolationstheorie und entsprechenden Computersimulationen für solche makromolekularen Systeme vorhergesagt. Die fraktalen Mikrogele bestehen aus selbstähnlichen kleinen Scheibchen. Die Untersuchung der Grenzflächenspannung von Flüssig/flüssig-Grenzflächen zeigte, dass bei Belegung der Grenzfläche mit 2D-Mikrogelen eine deutliche und signifikante Abnahme der Grenzflächenspannung zu beobachten ist. Mittels einer Mikrofluidik-Apparatur und eines Dispergiergerätes wurden die Emulsionen hergestellt und mikroskopisch und rheologisch untersucht. Die 2D-Mikrogele zeigten dabei einen emulsionsstabilisierenden Effekt. Bemerkenswert war, dass die Emulsionen dominierende elastische Eigenschaften zeigten. 363 138 110 Prevention in the working world of handicraft and small-sized firms In the past, measures for the improvement of health and safety at work in the Federal Republic have had a bias on large enterprises. This resulted in a lack of specific and adequate concepts for health and safety prevention in the world of small sized firms. Based on a critical discussion of research and development in this area and some results of an empirical salutogenic analysis of the German "Handwerk" as a preventive setting (risks and resources on the work level, local and institutional networks, practical experiences from pilot measures) the framework of a sector-specific concept of health-and-safety-promotion is drawn. It tries to integrate the elements of aims and general motivation, a basic model of internal cooperation for health and safety, instrumental needs and systems of external support. Prävention in der handwerklich-kleinbetrieblichen Arbeitswelt 364 324 330 Statistische Eigenschaften der Multikriteriellen Optimierung mittels Wünschbarkeiten In this thesis some statistical properties of multi-criteria optimization using Derringer-Suich desirability function are derived and discussed.Work starts from fundamental considerations about requirements to algorithms for multi-criteria optimization, which are derived from a discussion of the properties of existing algorithms. It is shown, that optimization with desirabilities using the geometric mean as index function fulfill the main requirement, namely the pareto-optimality of proposed solutions.The investigation of statistical properties got its momentum from analyzing current practice of using desirabilities for the case of product optimization and experimental design. It is shown, that current practice has some systematic shortcomings. Simulations show the consequences of these shortcomings. The ignorance of the modeling error and nonlinearity of desirabilities is identified as the most important source for these shortcomings.To improve the optimization with desirabilities it is proposed to understand them as random variates. For the case of linear weighting in the Derringer-Suich functions the exact distribution function of the random variate desirability for a given factor setting x for one-dimensional targets is calculated. As a consequence expected value and failure rate for a single target can be derived in this case. The derived distributions are applied to define so-called realistic desirabilities, which are used to shown in simulations, that improvements in overall product quality can be achieved using these realistic desirabilities instead of current practice.Using a generalization of the Derringer-Suich approach to more than two segments and afterwards calculating the distribution function for the more general case the distribution of Derringer-Suich desirabilities in the case of non-linear weighting could be approximated.Because the distributions of all desirabilities are known now, it is possible to derive some properties of the distribution of the geometric mean. On one hand the overall failure rate of the product can be calculated, on the other hand it was possible to show, that using realistic desirabilities leads to an algorithm which scales very well with the number of targets under realistic assumptions for the optimization problem. In der vorliegenden Dissertation werden einige statistische Eigenschaften der multikriteriellen Optimierung mittels der Derringer-Suich Wünschbarkeitsfunktionen hergeleitet und diskutiert. Ausgangspunkt der Arbeit sind grundsätzliche Überlegungen zu den Forderungen an Verfahren zur Lösung multikriterieller Optimierungsprobleme, welche aus einer Diskussion bekannter Verfahren mit ihren Vor- und Nachteilen hergeleitet werden.Es wird gezeigt, dass die Optimierung mittels Wünschbarkeiten und geometrischem Mittel die Forderung nach der Pareto-Optimalität der vorgeschlagenen Lösungen erfällt.Anstöße für eine Untersuchung der statistischen Eigenschaften des Wünschbarkeitsverfahrens ist die Analyse der aktuellen Praxis der Arbeit mit Wünschbarkeiten im Kontext der Produktoptimierung und der Versuchsplanung. Es wird aufgezeigt, dass eben diese Praxis systematische Schwächen aufweist. Die Folgen dieser Schwächen werden mittels Simulationen aufgezeigt. Als wichtige Ursache wird die Vernachlässigung des Modellierungsfehlers und der Nichtlinearität der Wünschbarkeiten identifiziert.Um das Wünschbarkeitsverfahren zu verbessern, wird die Betrachtung der Wünschbarkeiten als Zufallsvariablen vorgeschlagen. Es gelingt in der Folge, zunächst für den Fall linearer Gewichtung in den Derringer-Suich Funktionen, die exakte Verteilungsfunktion der als Zufallsvariablen aufgefassten Wünschbarkeit einzelner Zielgrößen für eine gegebene Faktoreinstellung x herzuleiten. Als Folgerung gelingt es in diesen Fällen auch, die wichtigen Größen Erwartungswert und Ausschussquote für jeweils ein einzelnes Qualitätsmerkmal zu berechnen. Als Anwendung der hergeleiteten Verteilungen werden die so genannten realistischen Wünschbarkeiten eingeführt und im Anschluss daran mittels Simulationen nachgewiesen, dass in der Praxis durch Nutzung der realistischen Wünschbarkeiten echte Verbesserungen in der erzielbaren Produktqualität nach der numerischen Optimierung erreicht werden können. Über eine Verallgemeinerung des Derringer-Suich Ansatzes auf mehr als zwei funktionale Abschnitte, die eine analoge Herleitung der zugehörigen Verteilungen ermöglicht und die Approximation von gewöhnlichen Derringer-Suich Funktionen mit nicht-linearer Gewichtung durch solche verallgemeinerten Wünschbarkeiten, gelingt es dann auch die Verteilungen für den nichtlinearen Fall zumindest approximativ anzugeben.Da nun alle Verteilungen der Einzelwünschbarkeiten bekannt sind, gelingt es auch, einige Verteilungsaussagen über den Wünschbarkeitsindex herzuleiten. Zum einen lässt sich die Ausschussquote des Gesamtproduktes angeben, zum anderen gelingt es nachzuweisen, dass das Wünschbarkeitsverfahren bei Anwendung der realistischen Wünschbarkeiten unter praxisnahen Annahmen mit der Zahl der Zielgrößen sehr gut skaliert. 365 295 230 Strahlphysikalische Aspekte des Targetbetriebs bei Hera-B The HERA­B target is operated to produce proton­nucleon interactions at the HERA proton storage ring. Therefore eight wire targets are arranged around the HERA proton beam. The distance of these wire targets to the center of the proton beam is continously steered in such a way that the interaction rate remains as constant as possible and that each of the targets contributes equally to the total rate. For the reconstruction of ebvents in the HERA­B detector it is important that no interactions arise in the time slots between the proton bunches rotating in HERA and that there are no large fluctuations of the interaction rate. This work describes the mechanics of the HERA­B target system, which is essential for the precise steering of the interaction rate, and summarizes the accomplished improvements of a newly constructed mechanics in comparison to the previously used target mechanics. While operating the target system not desired interactions in the time slots between the proton bunches of the beam were observed at the target. These coasting beam interactions are examined in detail in this work. The examinati­ ons show that the observed coasting beam consists of several components, which can be classified by their energy deviation relative to the nominal energy and their lifetime. Possible production mechanisms are discussed for the individual components. Furthermore the principle of modulating the storage ring tune was examined for the reduction of fluctuations of the interaction rate. With the help of a single particle simulation the principle of the tune modulation is described in detail. It is shown that the modulation increases the diffusion of the protons in the working area of the target. The increased diffusion leads to smaller fluctuations of the interaction rate, which is shown using measurements of the described target system. Das HERA­B Target wird zur Erzeugung von Proton­Nukleon Wechselwirkungen am HERA­Protonen Speicherring betrieben. Dazu sind acht Drahttargets um den HERA­Protonenstrahl angeordnet. Der Abstand dieser Drahttar­ gets zum Zentrum des Protonenstrahls wird ständig so geregelt, daß die Wechselwirkungsrate möglichst konstant bleibt und jedes der Targets gleichmäßig zur Gesamtrate beiträgt. Wichtig für die Rekonstruktion der Wechselwirkungen im HERA­B Detektor ist, daß zeitlich zwischen den in HERA umlaufenden Protonenbündeln keine Wechselwirkungen auftreten und daß keine zu großen Fluktuationen der Wechselwirkungsrate auftreten. Diese Arbeit beschreibt den für die präzise Regelung der Wechselwirkungsrate essentiellen mechanischen Aufbau des HERA­B Targetsystems und die im Rahmen einer Neukonstruktion durchgeführten Verbesserungen im Vergleich zur vorher eingesetzten Targetmechanik. Mit dem Targetsystem wurden zeitlich zwischen den Bunchen nicht erwünschte Wechselwirkungen der Strahlprotonen an den Targets beobachtet. Diese Coasting­Beam Wechselwirkungen wurden im Rahmen der vorliegenden Arbeit eingehend untersucht. Die Untersuchungen zeigen, daß der beobachtete Coasting­Beam aus mehreren Komponenten besteht, die durch ihre Energieabweichung relativ zur Sollenergie und ihre Lebensdauer klassifiziert werden können. Mögliche Produktionsmechanismen für die einzelnen Komponenten werden diskutiert. Desweiteren wurde das Prinzip der Modulation des Speicherringtune zur Reduktion von Fluktuationen der Wechselwirkungsrate untersucht. Mit Hilfe einer Ein­Teilchen­Simulation wird das Prinzip der Tune­Modulation im Detail erläutert. Es wird gezeigt, daß die Modulation die Diffusion der Protonen im Arbeitsbereich des Targets vergrößert. Diese zusätzliche Diffusion führt zu kleineren Ratenfluktuatioen, wie Messungen mit dem beschriebenen Targetsystem zeigen. 366 123 122 Competence development in the work process Lernanforderungen von Arbeitsaufgaben und Kompetenzentwicklung Changes in the area of work give reasons to believe that learning is a substantial component of professional work. Lately, the quality of learning, which is necessary for professional work, is described as development of competence. Competence can be understood as the ability of self-organized learning. Development of competence largely takes place in the process of work by dealing with tasks. A sample of employees with a technological qualification is classified into persons with qualification related jobs and in persons with non-qualification related jobs. Differences in criteria of the self concept of competence exist between these groups. Multiple and hierarchical regression analyses show learning demands at work as a predictor of the self concept of professional competence. Veränderungen in der Arbeitswelt begründen, dass Lernen ein wesentlicher Bestandteil von Berufsarbeit ist. Die in der Berufsarbeit erforderliche Qualität des Lernens wird in jüngerer Zeit mit Kompetenzentwicklung bezeichnet. Unter Kompetenz wird die Befähigung zu selbst organisiertem Lernen verstanden. Kompetenzentwicklung findet zum großen Teil im Prozess der Arbeit durch die Auseinandersetzung mit Aufgaben statt. Eine Stichprobe Erwerbstätiger mit einer Qualifikation auf technischem Gebiet wird in Personen mit stabilen, qualifikationsgerechten Berufsbiografien und in Berufsbiografien mit Brüchen klassifiziert. Deutliche Effektunterschiede im Selbstkonzept beruflicher Kompetenz können mit dem Umfang an Lernanforderungen in den Arbeitsaufgaben in Zusammenhang gebracht werden. Mit linearen und hierarchischen Regressionsanalysen wird geprüft, in welchem Umfang eine Varianzaufklärung im Selbstkonzept beruflicher Kompetenz durch die Lernanforderungen in der Arbeit gelingt. 367 159 125 Delimitaton of work and working time? Entgrenzung der Arbeit und der Arbeitszeit? This article deals with the question as to whether a tendency towards a delimitation/liberalisation of standard employment can be observed with respect to the change in forms of employment and working times. The author shows on the basis of empirical facts, that changes can be seen rather at the top and bottom margins of the employment system, while the main area of standard employment is hardly influenced by the change, if at all. An analysis of the driving forces of that change suggests to interpret it as a co-existence of limitation on the one hand and delimitation/liberalisation on the other hand, i.e. a polarisation of employment structures. On the basis of international comparisons it is clear that politics and regulations have a strong influence on the change in employment structures. The author justifies her perception, whereby the term delimitation/liberalisation can be applied most aptly where changes in the working contract are currently executed. Der Beitrag behandelt die Frage, ob sich in Bezug auf den Wandel der Beschäftigungsformen und der Arbeitszeiten Tendenzen der "Entgrenzung" von Normalarbeit beobachten lassen. Die Autorin zeigt anhand empirischer Fakten, dass sich Veränderungen derzeit eher am oberen und unteren Rand des Beschäftigungssystems ausmachen lassen, während der Kernbereich der Normalarbeit zumindest bisher von diesem Wandel bestenfalls tangiert wird. Eine Analyse der Triebkräfte des Wandels legt eine Interpretation als Nebeneinander von Be- und Entgrenzungen bzw. einer Polarisierung von Beschäftigungsstrukturen nahe. Anhand internationaler Vergleiche wird gezeigt, dass Politik und Regulierung einen starken Einfluss auf den Wandel der Beschäftigungsstrukturen haben. Die Autorin begründet ihre Auffassung, wonach der Begriff der Entgrenzung am treffendsten dort anzuwenden ist, wo sich derzeit eine Veränderung des Arbeitsvertrags vollzieht. 368 141 130 Visualisierungskonzepte für die Prozesslenkung elektrischer Energieübertragungssysteme Today's electric power systems are operated closer to their technical limits, which results in more complicated requirements for the staff in the control centre. Actual solutions for the visualization of the system state are mainly based on a topological representation of the grid combined with a huge number of single measurements. The consequence is a stressing amount of data. This thesis presents an innovative visualization concept, which rather focuses on the causal chain 'Cause-Effect-Action' of the power systems behaviour instead of displaying single measurements. Along with the assessment of power systems stability this includes the presentation of the causes for the changes of the system state and stabilizing control measures. Because of the advantages in the field of calculation time and knowledge handling, the determination of system indicators and problem specific detail information is mainly realized by methods of computational intelligence. Elektrische Energieübertragungssysteme werden heute vermehrt nahe an ihren technischen Grenzen betrieben, woraus sich erschwerte Randbedingungen für das Schaltpersonal in den zentralen Netzleitstellen ergeben. Bisherige Lösungen zur Anzeige des Systemzustands basieren zum größten Teil auf der topologischen Darstellung des Netzes sowie einer Vielzahl einzelner Messwerte. Daraus ergibt sich eine unübersichtliche Datenflut.Die Arbeit stellt ein neues Visualisierungskonzept vor, das durch die Orientierung an der Abhängigkeitskette 'Ursache-Wirkung-Maßnahme' das Verhalten des Energieübertragungssystems anstelle einer messwertfokussierten Anzeige in den Mittelpunkt rückt. Dabei werden neben der Bewertung des Arbeitspunktes bezüglich seiner systemtechnischen Grenzen die Ursachen einer Zustandsänderung sowie korrigierende Maßnahmen im Zusammenhang dargestellt. Die Bestimmung der dafür erforderlichen Systemindikatoren sowie von problemspezifischen Detailinformationen wird aufgrund der Vorteile bezüglich der Rechenzeit und der Wissensrepräsentation vorwiegend mit Verfahren der Computational Intelligence realisiert. 369 190 157 Zur Berechnung dynamischer Vorgänge bei von einem Drehstromsteller gespeisten Antrieben mit Asynchronmaschinen und mehreren gekoppelten Massen mittels Finite-Differenzen-Zeitschrittrechnung The time-functions of the torque indicated by a torque-measuring-shaft, the speed and the terminal voltage as well as the stator-currents are calculated for different running up tests and compared to measurements. Herein one focal point lies on the danger of a running up inhibited by parasitic synchronous torques, another one is given by the calculation of torsional vibrations, in particular in resonance. Concerning the running up behaviour additional calculations using a practical approximation at sinusoidal voltage are carried out especially for the incoming in synchronous torques. As a result a higher endangering of the running up is found for the V-belt drive compared to a drive with a direct coupling. With a three phase ac power controller it appears that almost exclusively the fundamental harmonics of the distorted terminal voltage and current contribute to the generation of torque and power. Therefore a dimensioning of the drive cannot be done according to the rms-values but must be done according to the fundamental harmonics of terminal voltage and current. With the drive having an additional fly-wheel driven via V-belt a so far unknown "quasi-synchronous" creeping speed can be proved numerically and experimentally. Die zeitlichen Verläufe des von der Drehmomentmeßwelle angezeigten Drehmomentes, der Drehzahl und der Klemmenspannung sowie des Ständerstromes werden für unterschiedliche Hochläufe berechnet und mit Messungen verglichen. Hierbei liegt ein Schwerpunkt auf der Hochlaufgefährdung durch parasitäre synchrone Drehmomente, ein anderer auf der Berechnung von Torsionsschwingungen, insbesondere in Resonanz. Zum Hochlaufverhalten werden zusätzlich speziell für den Einlauf in synchrone Drehmomentsättel Rechnungen mit einer praktischen Näherung bei sinusförmiger Klemmenspannung durchgeführt. Es ergibt sich eine höhere Hochlaufgefährdung bei einem Keilriemenantrieb gegenüber der direkten Kupplung. Mit Drehstromsteller zeigt sich, daß bei verzerrter Klemmenspannung und Strom fast ausschließlich die Grundschwingungen zur Entwicklung von Drehmoment und Leistungen beitragen. Eine Dimensionierung des Antriebes ist daher nicht nach dem Effektivwert, sondern nach den Grundschwingungen von Klemmenspannung und Strom vorzunehmen. Beim Antrieb mit einer zusätzlichen Schwungmasse über Keilriemen kann eine bislang unbekannte "quasisynchrone Schleichdrehzahl" rechnerisch und experimentell nachgewiesen werden. 370 166 171 Synthese und Anwendung katalytisch aktiver polymerer Nanopartikel As a part of "Green Chemistry", the development of new efficient catalytic processes for industrial applications has become the focus of science. For this reason different catalyts were immobilized onto the hydrophobic block of amphiphilic copolymers. These amphiphils were synthezised via RAFT polymerisation or cationic ring-opening polymerisation and form above the critical micelle concentration micelles. By functionalization of the hydrophobic core with catalyts, these aggregates can be used as nanoreactors. The following catalysts were immobilized: L-Prolin for asymmetric aldol reactions, a palladium NHC complex for C-C cross coupling reactions and OsO4 which can be used for dihydroxylation reactions. All catalyst systems showed good activity and the recycling of the catalyst was also possible. Furthermore core and shell cross-linked nanoparticles were synthesized and evaluated for their catalytic activity. It was found that for the core cross-linked nanoparticles the catalytic activity was not influenced, while with shell cross-linked nanoparticles a decreasing activity was observed. Moreover the L-Proline functionalized and Pd-NHC functionalized micelles were explored in a tandem reaction. Im Rahmen der "Grünen Chemie" ist die Entwicklung neuer effizienter Katalyseprozesse für industrielle Anwendungen in den Fokus der Wissenschaft gerückt. Aus diesem Grund wurden in dieser Arbeit verschiedenen Katalysatoren in den hydrophoben Block amphiphiler Polymere immobilisiert. Diese Amphiphile, die mit Hilfe der RAFT-Polymerisation hergestellt wurden, bilden oberhalb der kritischen Mizellbildungskonzentration Mizellen aus. Durch die Funktionalisierung des hydrophoben Blocks mit geeigneten Katalysatoren können diese als Nanoreaktoren verwendet werden. Dazu wurden folgende Katalysatoren immobilisiert: L-Prolin für asymmetrische Aldolreaktionen, ein Palladium-NHC-Komplex für C-C-Kupplungsreaktionen sowie OsO4, das für Dihydroxylierungsreaktionen verwendet wurde. Alle Katalysatorsysteme zeigten gute bis sehr gute Aktivitäten und auch die Rezyklierung der verschiedenen Systeme war möglich. Desweiteren wurden die funktionalisierten Mizellen schale- bzw. kernstabilisiert und der Einfluss auf die katalytische Aktivität untersucht. Es zeigte sich, dass bei der Stabilisierung des Mizellkerns ebenfalls gute katalytische Aktivitäten erzielt werden können, während die Aktivität bei der Stabilisierung der Mizelleschale, durch die zusätzliche Barriere, ein wenig abnimmt. Abschließend wurden die L-Prolin funktionalisierten und Pd-NHC funktionalisierten Mizellen in einer Tandemreaktion untersucht. 371 125 118 Homomorphic cryptosystems and their applications In this thesis we consider homomorphic cryptosystems and their applications. Homomorphic cryptosystems allow for computations on encrypted data.We prove that the search for an algebraically homomorphic scheme can be reduced to the search of a homomorphic scheme on a special non-abelian group. Furthermore, we focus on a special application: computing with encrypted functions and data, respectively. For this application we develop an improved protocol that is efficient for functions that are computable by polynomial branching programs. Finally, we generalise the elliptic curve Paillier scheme by S. Galbraith in order to construct a threshold version of it. For this threshold scheme we develop several Sigma-protocols. Using these protocols we apply our threshold scheme on multiparty computations, electronic voting and commitment schemes. Diese Arbeit beschäftigt sich mit homomorphen Kryptosystemen und ihren Anwendungen. Unter homomorphen Kryptosystemen versteht man Verfahren, die Berechnungen auf verschlüsselten Daten zulassen. Es wird bewiesen, dass die Suche nach einem algebraisch homomorphen Verfahren auf die Suche nach einem homomorphen Verfahren auf speziellen nicht-abelschen Gruppen zurückgeführt werden kann. Außerdem wird auf Berechnungen mit verschlüsselten Daten bzw. verschlüsselten Funktionen als Anwendung genauer eingegangen. Für diese wird ein verbessertes Protokoll vorgestellt, dass für Funktionen, die durch polynomielle Branching Pogramme berechnet werden können, effizient ist. Darüber hinaus wird das Elliptic Curve Paillier-Verfahren von S. Galbraith verallgemeinert, in dem eine Schwellwert-Version des Verfahrens konstruiert wird. Für dieses neue Schwellwertverfahren werden Sigma-Protokolle angegeben, die es ermöglichen, das Verfahren auf Wahlverfahren, Commitment-Verfahren und Multiparty-Computation anzuwenden. 372 589 531 The School of Hard Nox: Characterization of human Nox1 and cyclized Rab7 Deliberate enzymatic production of superoxide (O2.-) was originally thought to be restricted to the membrane-associated multi-subunit NADPH Oxidase in phagocytic cells, which use superoxide as a precursor to secondary reactive oxygen species (ROS) to destroy engulfed pathogens as a part of innate immunity. Recent discovery in nonphagocytic tissues of an entire family of proteins (Nox) homologous to the catalytic subunit of the phagocytic NADPH Oxidase has led to the recognition of the role of ROS in normal cellular signaling, with an increasing awareness of the pathological consequences when this signaling becomes dysregulated. These Nox proteins normally produce low-level, intracellular superoxide, although many factors can stimulate their activity. Nox1 has emerged as a key oxidase in the vasculature with the discovery that factors which promote vascular disease additionally stimulate its activity. Knowledge of the three-dimensional structure of the holoenzyme or of the cytosolic domain, which catalyzes the first electron transfer step, could aid in the design of specific inhibitors as novel therapeutics. In this work, methods were developed to produce recombinant human Nox1 suitable for structure determination by X-ray crystallography. Investigations to promote the heterologous expression of recombinant full-length human Nox1 in E. coli did not result in observable overexpression. In contrast, four constructs containing the cytosolic domain of human Nox1 were solubly expressed in low amounts. Expression and purification protocols were developed for these constructs. Of these, an N-terminally His-tagged truncated human Nox1 containing residues 290-564 was found to possess an intrinsic NADPH-dependent diaphorase activity of 0.95 mol reduced NBT/min/mol protein. This activity is similar in magnitude to that of a longer construct of the phagocytic homologue, and is higher than Nox1 activity measured in vivo. The purified truncated human Nox1 required high ionic strength conditions for stability, and incubation with phagocytic regulatory proteins slightly enhanced its intrinsic activity. This active truncated human Nox1 would be suitable for future structure determination studies. Protein backbone cyclization is a method to increase the inherent stability of a target protein, and may also be a useful tool to aid in the crystallization of proteins through stabilization of flexible loops. To evaluate the potential of this application, Rab7 GTPase (residues 7-185) was cyclized, characterized, crystallized in both GDP- and GTP-bound forms, and the corresponding structures were determined. Cyclization did not significantly alter the secondary structure of Rab7, but increased its thermal stability by 3.7°C. Cyclized Rab7 demonstrated similar GTPase activity and effector association-dissociation kinetics as an equivalent linear Rab7 construct. Cyclized Rab7*GDP crystallized readily and diffracted to significantly higher resolution than uncyclized Rab7*GDP. Crystal contacts involving residues from the linker used for cyclization stabilized the Switch I loop, which is disordered in Rab7*GDP structures, such that its structure could be determined. Cyclized Rab7*GppNHp was also crystallized, but these crystals were found to be pseudomerohedrally twinned with a high twinning fraction. In contrast to the stabilization seen in the cyclized Rab7*GDP structure, the final model of cyclized Rab7*GppNHp contained several regions of flexibility, including the Switch II loop, which is visible in other active Rab7 structures. These structures indicate that the N- and C- termini normally point in opposite directions. The linker used for cyclization may not be long enough to allow the protein to adopt this conformation, generating a strained conformation that affects other regions of the protein, like Switch II. In general, protein backbone cyclization can be a useful method to aid in the crystallization of proteins in which the N- and C-termini lie in close proximity to each other. Bisher wurde angenommen dass die gezielte enzymatische Produktion von Superoxid (O2.-) ausschließlich in der membran-assoziierten NADPH-Oxidase in Phagozyten stattfindet. Diese verwenden Superoxid als Vorstufe sekundärer reaktiver Sauerstoff-Spezies (ROS), um im Rahmen der angeborenen Immunantwort umhüllte Pathogene zu zerstören. Die in letzter Zeit in nicht-phagozytischem Gewebe entdeckte ´"Nox" Protein-Familie, welche homolog ist zur katalytischen Untereinheit der phagozytischen NADPH-Oxidase, hat zu der Erkenntnis geführt dass ROS auch außerhalb von Phagozyten als Signalmoleküle eine wichtige Rolle spielen. Damit einher ging auch ein Verständnis für die pathologischen Konsequenzen einer Fehlregulation von ROS. Nox-Proteine produzieren normalerweise kleine Mengen intrazellulares Superoxid, obwohl viele verschiedene Faktoren diese Aktivität stimulieren können. Mit der Erkenntnis dass viele Herzkreislauferkrankungen verursachende Faktoren auch die Aktivität von Nox1 stimulieren können, wurde in Nox1 eine der wichtigsten NADPH-Oxidasen des Gefäßsystems erkannt. Die Kenntnis der dreidimensionalen Struktur des ganzen Enzyms Nox1 oder seiner cytosolischen Domäne, welche den ersten Elektronübergang katalysiert, würde die Entwicklung spezifischer Inhibitoren als potentielle neuartige Medikamente unterstützen. Im Rahmen dieser Arbeit wurden zur Strukturaufklärung mit Hilfe der Röntgenstrukturanalyse ein Expressionsprotokoll und ein Reinigungsprotokoll für die rekombinante Proteinerzeugnung des menschlichen Nox1s (hNox1) entwickelt. Untersuchungen der Expression des Volllängenproteins hNox1 in E. coli zeigten keine nennenswerte Protein-Produktion. Im Gegensatz wurden vier Konstrukte der zytosolischen Domäne in niedrigen Mengen löslich exprimiert. Eines dieser Konstrukte, welches einen N-terminalen Hexahistidin-Tag und die Aminosäurereste 290-564 einschließt, zeigte eine Aktivität von 0,95 mol reduziertes NBT/min/mol Protein. Diese Aktivität ist vergleichbar mit der Aktivität eines längeren verkürzten Konstrukts des phagozytischen Homologs, und größer als die für Nox1 in vivo gemessene Aktivität. Dieses gereinigte, verkürzte Konstrukt von hNox1 benötigte zur Stabilisierung Puffer mit einer hohen Ionenstärke. Die Inkubation mit phagozytischen zytosolischen Regulator-Proteinen führte zu einer leichten Erhöhung der intrinsischen Aktivität. Dieses aktive verkürzte Konstrukt könnte sich gut für zukünftige Röntgenstrukturanalysen eignen. Proteinzyklisierung ist eine Methode, die inhärente Stabilität eines Proteins zu erhöhen. Dadurch kann auch die Kristallisation eines Proteins ermöglicht werden, da z.B. flexible Bereiche des Proteins stabilisiert werden können. Um das Potential dieser Methode zu validieren, wurde die kleine GTPase Rab7 (Aminosäurereste 7-185) zyklisiert, charakterisiert, und in Komplex mit GDP und GTP kristallisiert. Die Zyklisierung verändert die Sekundärstruktur von Rab7 nicht bedeutsam, jedoch erhöht sich dadurch die thermische Stabilität des Proteins um 3,7°C. Zyklisiertes Rab7 hat eine mit linearem Rab7 vergleichbare GTPase-Aktivität und Assoziations/Dissoziations-Kinetik für Effektormoleküle. Zyklisiertes Rab7 hat die Kristallisation und Diffraktion von Rab7*GDP erheblich verbessert. Neue Kristallkontakte, welche Aminosäurereste des zur Zyklisierung verwendeten Linker-Bereichs involvieren, stabilisieren den normalerweise ungeordneten Switch I Bereich so weit dass die Kristallstruktur dieses Bereichs aufgeklärt werden konnte. Zyklisiertes Rab7*GppNHp wurde auch kristallisiert, aber die erhaltenen Kristalle waren hochgradig pseudomerohedral verzwillingt. Im Gegensatz zum zyklisierten Rab7*GDP zeigt die Kristallstruktur von zyklisiertem Rab7*GppNHp viele flexible Bereiche, welche auch den normalerweise sichtbaren Switch II Bereich einschließen. In Strukturen von aktivem Rab7 zeigt der N- und C-Terminus in entgegengesetzte Richtungen. Der zur Zyklisierung verwendete Linker scheint jedoch zu kurz zu sein um eine vergleichbare energetisch günstige Konformation zu ermöglichen. Dadurch wird eine weniger günstige Konformation erzwungen, in der einige Bereiche des Proteins wie Switch II eine hohe Flexibilität aufweisen. Allgemein kann Proteinzyklisierung als eine sehr nützliche Methode zur Unterstützung der Kristallisation von Proteinen eingesetzt werden, in denen der N- und C-Terminus in enger räumlicher Nähe zueinander liegen. 373 162 124 Transfer via locales - A typology of facilities in universities oriented towards combined-technologies What contribution can human and material resources in the universities make to the transfer of knowledge and technology in partnership with industry? This is the central question in the following discourse, which is based on a one-year empirical pilot study. In this investigation, qualitative methods are used to illuminate, on an organizational level, the transfer contribution of research and development facilities (R&D) in those universities which are oriented towards combined-technologies. The locales under examination lend themselves to a distinction being made on the one hand with the help of the differentiation "invention/innovation", and "interaction/organization" on the other hand. On the basis of this differential pairing it will be possible to develop an (ideal) typology of four locales, which can serve as objects of examination and explanation. Finally, the typological concept will be used to make a clear distinction between the transfer potential and achievement of the various R&D locales. Transfer über F&E-Orte 374 171 154 Anwendbarkeit des Bettungsmodulverfahrens mithilfe von Mobilisierungsfunktionen zur Prognose von Wandverschiebungen Brand et al. (2009, 2010, 2011) show in extensive studies, that there is a big disagreement between measured and calculated wall movements based on mobilization functions recommended in EB 102. In consequence the respective section in the 4th edition was canceled in the 5th edition of the EAB. This problem is picked up in this work. It is shown, that systematical errors in the mobilization functions, which are developed under idealized conditions, or the approach of the initial stress condition by Weißenbach and Gollub (1995) or EAB can be excluded. A significant correction of the simulation of the subgrade reaction can be reached by the use of a realistic friction angle in the sense of a mean value instead of a lower characteristic limit. Using Besler’s approach, the stiffness can be increased by the introduction of a correction factor at the same time mentaning the reduced friction angle, which is normally taken into account in practice. Therefore it is not necessary to investigate separately the ultimate and the serviceability limit state. Brand et al. (2009, 2010, 2011) stellen in umfangreichen Untersuchungen signifikante Abweichungen zwischen gemessenen und nach EB 102 auf der Grundlage von Mobilisierungsfunktionen ermittelten Verformungen fest. Aufgrund der unklaren Sachlage wurde der betreffende Absatz der 4. Auflage in der 5. Auflage der EAB gestrichen. In der vorliegenden Arbeit wird diese Fragestellung aufgegriffen. Es wird gezeigt, dass systematische Fehler bei den unter idealisierten Bedingungen abgeleiteten Mobilisierungsfunktionen oder beim Ansatz des Ausgangsspannungszustandes nach Weißenbach und Gollub (1995) bzw. EAB ausgeschlossen werden können. Eine erhebliche Verbesserung der Prognose des Bettungsverhaltens lässt sich durch Ansatz eines wirklichkeitsnahen Reibungswinkels im Sinne eines Mittelwertes anstelle eines unteren charakteristischen Wertes erreichen. Verwendet man den Vorschlag von Besler, lässt sich die Steifigkeit durch Einführung eines Korrekturfaktors unter Beibehaltung der in der Praxis üblichen abgeminderten Reibungswinkel erhöhen, und es sind nicht mehr getrennte Nachweise für den Grenzzustand der Tragfähigkeit und der Gebrauchstauglichkeit erforderlich. 375 237 194 Real time monitoring of nanoparticle production with SAXS and DLS A nanoparticle (NP) characterization tool which combines a NanoSTAR from Bruker AXS and a VascoFLEX from Cordouan Technologies for simultaneous Small Angle X-ray Scattering (SAXS) and Dynamic Light Scattering (DLS) measurements is demonstrated. Both complementary techniques were used to characterize NP suspensions in real-time while ongoing synthesis and NP production. For the synthesis of NPs a microflow reactor was used. Real-time characterization of NP production is a promising mean to produce NPs of desired size and properties. Both characterization techniques were improved to meet the requirements of real-time monitoring. To realize fast SAXS measurements and a high time resolution the liquid anode MetalJet X-ray source was used. Moreover, the X-ray collimation was improved by using SCATEX pinholes. Both improvements led to an X-ray flux increase by a factor of 10 compared to Bruker’s rotating anode systems with standard beam collimation. Furthermore, a dedicated SAXS analysis software was implemented for automated measurements and extraction of parameters such as the size of the NPs. To realize simultaneous SAXS and DLS measurements the VascoFLEX device was integrated into the NanoSTAR sample chamber. In order to test and demonstrate the real-time monitoring capability of the SAXS and DLS devices, real-time monitoring of silica nanoparticles production was performed. The influence of different synthesis parameters such as the reactor temperature, flow rates and concentrations of the precursors on the NP size was investigated. Echtzeitüberwachung von Nanoteilchenproduktion mit SAXS und DLS: Ein NanoSTAR von der Firma Bruker AXS und ein VascoFLEX von der Firma Cordouan Technologies wurden kombiniert, um Nanoteilchen (NT) mittels gleichzeitiger Röntgenkleinwinkelstreuung (engl.: Small Angle X-ray Scattering, SAXS) und dynamischer Lichtstreuung (engl.: Dynamic Light Scattering, DLS) zu charakterisieren. Die komplementären Messmethoden wurden zur Echtzeitüberwachung von NT-Synthese und NT-Produktion benutzt. Für die Produktion von NT wurde ein Mikroreaktor verwendet. Echtzeitüberwachung ist eine vielversprechende Methode, um NT mit einer gewünschten Größe zu produzieren. Um die Echtzeitüberwachung zu ermöglichen, wurden die verwendeten Geräte optimiert. Für schnelle SAXS Messungen wurde die MetalJet-Röntgenquelle verwendet. Weiterhin wurde die Konditionierung des Röntgenstrahls mittels SCATEX Blenden optimiert. Beides führte zu einer Erhöhung der Röntgenintensität um einen Faktor von 10 verglichen mit NanoSTAR-Systemen mit einer Drehanoden-Röntgenquelle und den Standardblenden. Weiterhin wurde eine Software implementiert, die eine automatische Bestimmung der NT-Größe während der Produktion ermöglicht. Um gleichzeitige SAXS und DLS Messungen zu realisieren, wurde das VascoFLEX Gerät in die NanoSTAR-Probenkammer integriert. Um die Messgeräte zu validieren, wurden Siliziumdioxid-NT produziert und die Produktion in Echtzeit überwacht. Dabei wurde der Einfluss von verschiedenen Synthesebedingungen wie der Reaktortemperatur, Flussraten und Konzentrationen der Reaktionsedukte auf die Größe der NT untersucht. 376 433 333 Konzepterstellung zur ereignisorientierten Initiierung einer Bewertung von automobilen Produktionsprogrammen im mittelfristigen Zeithorizont The increasing technical complexity of cars and the high number of offered options due to an increasing number of new production ramp-ups and outlets, as vehicle models are at different stages of the product life cycle in different markets, lead to new challenges in the automotive industry and especially the mid-term demand and capacity management. The increasing shift of value creation away from the car manufacturer into the supplier networks leads to global, multi-layered supply networks. This results in increasing requirements for the production planning as the first interface between sales and production departments. The dissertation aims to make an application-oriented contribution to the development of an event-oriented approach of a medium-term evaluation of an automotive production-planning program. Existing planning processes reach their limits and fail to represent the requirements of a holistic and fast capacity check with an iterative feedback process to identify restrictions regarding critical parts. Within this conflict between required planning flexibility and stability, the research field of this doctoral thesis settles to address the mentioned requirements. The international research information on the theoretical background of production program planning and graphic process modelling serves to derive the research gap. The current state of research does not include a detailed capacity checking in the mediumterm horizon to improve the security of supply of the production program, as the determination of the dependent requirements takes place after the release of the production program. The need for action of an evaluation of automotive production programs with regard to security of supply and financial incremental changes in the medium-term view is identified for the first time. The developed qualitative research design addresses the empirical research gap and the identified practical needs. The creation of an extensive database results from expert interviews, a document analysis and process observations at a German automobile manufacturer with an almost unlimited variety of options due to its private and business customer segments. This research approach captures and structures the challenges and requirements of the process-related adoption of an event-oriented evaluation of automotive production programs in the medium-term horizon. The firsttime contribution of an application-oriented approach relies on the empirical and practical requirements, it enables a holistic assessment of security of supply to enhance transparency of the process participants via an adoptable process based on an iterative feedback loop. Various contributions for validation confirm the benefits of the developed solution, such as the review of set requirements and the investigation of a real use case of the automotive industry. The dissertation ends with a critical appraisal of the research design and its elaborated research results to identify future research needs. Die zunehmende technische Komplexität von Kraftfahrzeugen und die Vielfalt der angebotenen Varianten dient der Befriedigung der Individualisierungsanforderungen der Endkunden auf dynamischen Absatzmärkten. Zudem kommt es zu einer steigenden Anzahl an Fahrzeuganläufen und -ausläufen, da sich Fahrzeugmodelle in verschiedenen Märkten in unterschiedlichen Phasen des Produktlebenszyklus befinden. Die zunehmende Verlagerung der Wertschöpfung vom Automobilhersteller weg zu den Lieferanten führt zu global verteilten, vielschichtigen Liefernetzwerken mit langen Vorlaufzeiten zur Kapazitätsbereitstellung. In diesem Spannungsfeld erforderlicher Einplanungsflexibilität der Absatzplanung und vorausschauender Einplanungsstabilität und -güte der Kapazitätsbereitstellung siedelt sich das Forschungsfeld dieser Dissertation an. Das Ziel ist es, einen anwendungsorientierten Beitrag zur Entwicklung eines proaktiven Ansatzes mittelfristiger Programmbewertung im Kontext der Automobilindustrie zu leisten. Manuelle Planungsprozesse stoßen aufgrund steigender Komplexität und erforderlicher Planungsschnelligkeit zunehmend an ihre Grenzen und bilden die Wirkungszusammenhänge unzureichend ab. Um diese Problemstellung zu adressieren, werden die theoretischen Grundlagen zur Produktionsprogrammplanung aufbereitet. Hierbei liegt der Fokus auf der prozessualen Ausgestaltung der dazugehörigen Geschäftsprozesse. Der aktuelle Forschungsstand sieht keine detaillierte Kapazitätsprüfung im mittelfristigen Horizont vor, um die Versorgungssicherheit des Produktionsprogramms zu verbessern, da die Sekundärbedarfsermittlung nach der Freigabe des Produktionsprogramms erfolgt. Im Kontext der Aufbereitung identifizierter Autoren zum Forschungsumfeld wird der Handlungsbedarf einer ereignisorientiert initiierten Bewertung automobiler Produktionsprogramme erstmalig identifiziert. Zur Adressierung dieser Forschungslücke und des unternehmerischen Praxisbedarfs wird ein qualitatives Forschungsdesign ausgestaltet. Den Auswertungsgegenstand bilden Experteninterviews, eine Dokumentenanalyse sowie Prozessbeobachtungen bei einem deutschen Automobilhersteller, der durch seine Privat- und Geschäftskunden über eine große Variantenvielfalt und Prozesskomplexität verfügt. Das Forschungsdesign erfasst Schwachstellen im Ist-Prozess und Anforderungen einer ereignisorientiert initiierten Bewertung automobiler Produktionsprogramme in der Praxis. Basierend auf den empirischen und praxisnahen Anforderungen wird erstmalig ein anwendungsorientierter Beitrag geleistet, der eine Prüfung der Versorgungssicherheit und der finanziellen Veränderungen ermöglicht und die Prozessbeteiligten über einen iterativen Rückkopplungsprozess miteinander vernetzt. Der Nutzen wird über diverse Beiträge zur Validierung, wie die Überprüfung gesetzter Anforderungen und die Untersuchung eines realen Anwendungsfalls, bestätigt. Die Dissertation endet mit einer kritischen Beurteilung des Forschungsdesigns und der erarbeiteten Forschungsergebnisse zur Ermittlung des zukünftigen Forschungsbedarfs. 377 332 302 Zum Biegedrillknicken von biegebeanspruchten I‐Profilen mit und ohne Voute Portal frame structures made of steel mostly comprise open, I-shaped, hot-rolled sections. Often the depth of the rafter is increased near the eaves by a haunch to approximate the load distribution. This design offers the economic advantage that a smaller section can be used for the largest part of the member. In the present study the stability behaviour of I-beams with and without haunches under bending is analysed. For this purpose, extensive analytical, numerical and experimental investigations taking into account the relevant parameters in building construction are carried out. For I-beams with variable cross-section design aids that help determining the elastic critical buckling moment Mcr are provided. These take into account that the section properties vary over the member length. For haunched members that consist of a continuous base profile and a cropped I-section welded underneath the effect of an additional third flange is included. With the help of experimental tests and numerical simulations, it is examined how the classification of haunched members can occur with respect to the standardized lateral torsional buckling curves in Eurocode 3-1-1. In an additional step, requirements concerning stiffness and arrangement of secondary members are derived that permit to rule out failure due to lateral torsional buckling if complied with. These will enable the engineer in daily practice to skip the complex lateral torsional buckling check and to utilise the full resistance of the cross section. Finally, extensive studies on the quality of discrete supports and the structural design of frame corners are performed that lead to the formulation of construc-tive rules for the dissolution of the overall structure into individual members. As the result, a consistent and thoroughly confirmed concept for the determina-tion of the moment resistance of I-beams with and without haunches by hand-calculation is presented. This complies with the design rules of Eurocode 3 and is based on the well-established design procedures involving stability checks of individual members. By providing easy-to-use design aids, the simple implementation and applicability in engineering practice can be ensured. Rahmenartige Tragwerke aus Stahl werden überwiegend aus offenen, I-förmigen Walzprofilen hergestellt, wobei häufig in den hochbeanspruchten Rahmenecken durch Voutung der Profile eine Annäherung an den Beanspruchungsverlauf vorgenommen wird. Diese Konstruktionsweise bietet den wirtschaftlichen Vorteil, dass für den größten Trägerbereich ein statisch angepasstes Profil verwendet werden kann. Im Rahmen der vorliegenden Arbeit wird das Stabilitätsverhalten von biegebeanspruchten I-Profilen mit und ohne Voute grundlegend untersucht. Hierzu werden umfangreiche analytische, numerische und experimentelle Untersuchungen unter Berücksichtigung der im Stahlhochbau relevanten Parameter durchgeführt. Für I-Profile mit veränderlichem Querschnitt werden Bemessungshilfen zur Bestimmung des idealen Biegedrillknickmomentes Mcr bereitgestellt. Diese berücksichtigen die über die Bauteillänge veränderlichen Querschnittswerte sowie gegebenenfalls die Wirkung eines zusätzlichen dritten Flansches bei gevou-teten Bauteilen, die aus einem durchlaufenden Grundprofil und einem daruntergeschweißten kupierten I-Profil bestehen. Mit Hilfe von Traglastversuchen an gevouteten Bauteilen und numerischen Simu-lationsberechnungen wird untersucht, wie die Zuordnung der gevouteten Bauteile zu den genormten Biegedrillknickkurven gemäß Eurocode 3-1-1 erfolgen kann. Für einen Ausschluss des Biegedrillknickversagens, werden in einem weiteren Schritt Bedingungen für die erforderliche Steifigkeit sowie die Anordnung von sekundären Traggliedern hergeleitet. Diese ermöglichen es dem Ingenieur in der täglichen Praxis, zum einen auf einen aufwändigen Biegedrillknicknachweis zu verzichten und zum anderen die Querschnittstragfähigkeit voll auszunutzen. Schließlich werden umfangreiche Untersuchungen zur Beschaffenheit von diskre-ten Halterungen und zur Ausbildung von Rahmenecken durchgeführt, die dazu führen, dass konstruktive Regeln für das Herauslösen von Einzelbauteilen aus dem Gesamttragwerk bereitgestellt werden können. Im Ergebnis wird somit ein konsistentes und durchgängig abgesichertes Handre-chenkonzept zur rechnerischen Bestimmung der Tragfähigkeit von I‐Profilen mit und ohne Voute unter Biegebeanspruchung vorgestellt. Dieses fügt sich in die Bemessungsregeln des Eurocode 3 ein und basiert auf dem bewährten verein-fachten Biegedrillknicknachweis an aus dem Gesamtsystem herausgelösten Einzelbauteilen. Durch die Bereitstellung von einfach zu handhabenden Bemes-sungshilfen wird die einfache Umsetzung und Anwendbarkeit in der Praxis gewährleistet. 378 138 132 Aufbau eines freigabe- und kommunikationsbasierten Assistenzsystems im Produktentstehungsprozess The product development process became a substantial factor and adjustment for the economic success of today's products and their life cycles. By means of integrity and standardization, a high process parallelization degree must be realized, in order to re-lease products faster, with secured quality and economic market prices. The release management is used as the most relevant method in the course of Simultaneous Engi-neering for the shortening of the product development time by process parallelization. Releases, as a preventive method, and changes with a reactive character have to be adapted to individual development cases. By increasingly distanced development proj-ects, process parallelization requires communication intensification. For this purpose an assistance system is developed that permits the developer to define communication in-stances, communication kinds and communication intervals for an individual case of development. A case study establishes a practical purchase. Der Produktentwicklungsprozess ist zu einem der wesentlich Faktoren und Stellschrau-ben für den wirtschaftlichen Erfolg heutiger Produkte und deren Lebenszyklen gewor-den. Mittels Integrität und Standardisierung muss ein hoher Prozessüberlappungsgrad realisiert werden, um schneller, mit gesicherter Qualität und zu wirtschaftlichen Kosten ein Produkt auf den Markt bringen zu können. Das Freigabemanagement wird als das maßgebliche Instrumentarium im Zuge des Simultaneous Engineering zur Verkürzung der Produktentstehungszeit durch Prozessparallelisierung genutzt und individuellen Entwicklungsszenarien angepasst. Der präventiven Methodik des Freigabemanagements wird zudem das Änderungsmanagement als reaktive Vorgehensweise adaptiert. Durch zunehmend räumlich verteilte Entwicklungsvorhaben muss mit Prozessparallelisie-rungsbestrebungen eine Kommunikationsintensivierung einhergehen. Zu diesem Zweck wird ein Assistenzsystem entwickelt, dass es dem Entwickler erlaubt, Kommunikati-onsinstanz, -art und -intervall für einen individuellen Entwicklungsfall bestimmen zu können. Ein abschließendes Anwendungsbeispiel stellt den Praxisbezug her. 379 129 105 Förderbedingungen von Schülerinnen im Förderschwerpunkt Sprache This study is part of the project "Sprache 2010". An online questionnaire was completed in 27 schools in the German state of North Rhine-Westphalia. All head of schools and 92 teachers of a total of 27 inclusive and special schools reported on their satisfaction, resources, attitudes towards, and experiences with special education in children with language impairments. Main results indicate rather low stress experience in teachers alongside a high self-perceived vocational competence, and rather high satisfaction with the status quo. Differences between inclusive and special schooling are only found in few dimensions: self-efficacy and appreciation of integration. Both are found to be higher in teachers of inclusive settings. Also, teachers with experience in inclusive settings have a more positive attitude towards inclusion than their colleagues appointed to special schools. Präsentiert wird eine Teilstudie des Projekts "Sprache 2010" in NRW. Mittels einer Online-Befragung von 27 Schulleitungen und 92 Lehrkräften in speziellen Institutionen und integrativen Schulsettings des Förderschwerpunkts Sprache wurden personelle Schulstrukturen, schulische Förderbedingungen und Selbsteinschätzungen der Lehrpersonen zu berufsbezogenen Aspekten erfasst. Als Hauptergebnis zeigt sich eine mittel bis gering beruflich belastete Lehrerschaft mit einem hohen beruflichen Kompetenzerleben, die sich mit den schulischen Förderbedingungen zufrieden zeigt. Unterschiede zwischen Förder- und Grundschulpädagoginnen ließen sich nur hinsichtlich ihres Selbstwirksamkeitserlebens in der Sprachförderung und ihrer Einstellung zur Integration ausmachen. Letztere ist bei Lehrkräften mit Integrationserfahrung deutlich positiver ausgeprägt als bei Kollegen der Förderschule. 380 220 193 Measurements of 𝑪𝑷 Violation in 𝑩𝟎 → [𝒄𝒄]𝑲𝟎 S Transitions at LHCb This thesis presents a measurement of decay-time-dependent 𝐶𝑃 violation in the decays 𝐵0 → 𝐽/𝜓𝐾S0 and 𝐵0 → 𝜓(2𝑆)𝐾S0, where the 𝐽/𝜓 is reconstructed from two electrons and the 𝜓(2𝑆) from two muons. The used data sample corresponds to an integrated luminosity of 3fb^{−1} of 𝑝𝑝 collisions and has been recorded by the LHCb experiment at centre-of-mass energies of 7 and 8 TeV. The 𝐶𝑃 violation observables are measured to be 𝐶(𝐵0 → 𝐽/𝜓𝐾S0) = 0.12 ± 0.07 (stat.) ± 0.02 (syst.), 𝑆(𝐵0 → 𝐽/𝜓𝐾S0) = 0.83 ± 0.08 (stat.) ± 0.01 (syst.), 𝐶(𝐵0 → 𝜓(2𝑆)𝐾S0) = − 0.05 ± 0.10 (stat.) ± 0.01 (syst.), 𝑆(𝐵0 → 𝜓(2𝑆)𝐾S0) = 0.84 ± 0.10 (stat.) ± 0.01 (syst.), where 𝐶 describes 𝐶𝑃 violation in the direct decay, and 𝑆 describes 𝐶𝑃 violation in the interference between the amplitudes for the direct decay and for the decay after 𝐵0-𝐵0 oscillation. The results are compatible with the previous LHCb measurement that used 𝐵0 → 𝐽/𝜓𝐾S0 decays, where the 𝐽/𝜓 was reconstructed from two muons. A combination of these three measurements results in 𝐶(𝐵0 →[𝑐𝑐]𝐾S0)=−0.017±0.029(stat.+syst.), 𝑆(𝐵0 →[𝑐𝑐]𝐾S0)= 0.760±0.034(stat.+syst.), assuming that higher-order contributions can be neglected. The results are compatible with previous measurements and improve the precision of 𝑆 at LHCb by 20 %. Diese Arbeit beschreibt eine Messung von zerfallszeitabhängiger 𝐶𝑃-Verletzung in den Zerfällen 𝐵0 → 𝐽/𝜓𝐾S0 und 𝐵0 → 𝜓(2𝑆)𝐾S0, in welchen das 𝐽/𝜓 aus zwei Elektronen und das 𝜓(2𝑆) aus zwei Muonen rekonstruiert wird. Der verwendete Datensatz entspricht einer integrierten Luminosität von 3fb^{−1} 𝑝𝑝-Kollisionen und wurde mit dem LHCb- Experiment bei Schwerpunktsenergien von 7 und 8 TeV aufgenommen. Die gemessenen 𝐶𝑃-Observablen sind 𝐶(𝐵0 → 𝐽/𝜓𝐾S0) = 0.12 ± 0.07 (stat.) ± 0.02 (syst.), 𝑆(𝐵0 → 𝐽/𝜓𝐾S0) = 0.83 ± 0.08 (stat.) ± 0.01 (syst.), 𝐶(𝐵0 → 𝜓(2𝑆)𝐾S0) = − 0.05 ± 0.10 (stat.) ± 0.01 (syst.), 𝑆(𝐵0 → 𝜓(2𝑆)𝐾S0) = 0.84 ± 0.10 (stat.) ± 0.01 (syst.), wobei 𝐶 die direkte 𝐶𝑃-Verletzung im Zerfall, und 𝑆 die 𝐶𝑃-Verletzung in der Interferenz zwischen den Amplituden des direkten Zerfalls und des Zerfalls nach 𝐵0-𝐵0-Oszillation darstellt. Die Ergebnisse sind mit der vorherigen Messung von LHCb kompatibel, die 𝐵0 → 𝐽/𝜓𝐾S0 Zerfälle mit Rekonstruktion des 𝐽/𝜓 aus zwei Muonen verwendete. Eine Kombination dieser drei Messungen resultiert in 𝐶(𝐵0 →[𝑐𝑐]𝐾S0)=−0.017±0.029(stat.+syst.), 𝑆(𝐵0 →[𝑐𝑐]𝐾S0)= 0.760±0.034(stat.+syst.), unter der Annahme, dass Beiträge höherer Ordnung vernachlässigbar sind. Die Ergebnisse sind kompatibel mit vorherigen Messungen und verbessern die Präzision von 𝑆 bei LHCb um 20%. 381 83 99 Selektive Markierung von cysteinhaltigen Domänen und Proteinen mit ESR-Sonden Labeling of proteins with biophysical probes is a technical challenge. A large number of methods have been developed recently. The standard method for EPR labeling of proteins is site directed spin labeling (SDSL). An alternative for SDSL is shown here. The methods of choice for labeling of peptides are solid phase peptide synthesis and chemical ligation methods (NCL & EPL). A compatible EPR probe was synthesized in good yields. The EPR label was incorporated in peptides and the biological systems RBD/Ras and HtrII/SRII. Die Markierung von Proteinen mit physikalischen Sonden ist eine technische Herausforderung. Hierzu wurden eine Vielzahl teils aufwendiger Methoden entwickelt. Die derzeitige Standardmethode zur ESR Markierung von Proteinen ist das site directed spin labeling (SDSL). In dieser Arbeit wurde eine Alternative zum SDSL entwickelt. Als Methode zur Markierung wurde eine Kombination aus Festphasensynthese von Peptide und chemischer Ligation (NCL & EPL) verwendet. Der notwendig kompatible ESR Marker wurde entwickelt und in guten Ausbeuten synthetisiert. Der ESR Marker konnte in Peptide eingebracht und in den biologischen Systemen RBD/Ras und HtrII/SRII verwendet werden. 382 243 218 Nonperiodic tilings with integer inflation factor Nichtperiodische Pflasterungen mit ganzzahligem Inflationsfaktor Families ('species') of - mainly nonperiodic - inflation tilings in euclidean spaces of arbitrary dimension are examined. We are mainly interested in two properties: (1) finite local complexity, and (2) representation as model sets (i.e., by a 'cut-and-project-scheme'), in the case of species with integer inflation factor.For (1) four sufficient conditions are shown, which all can be read off the prototiles of the tilings resp. the first inflation of the prototiles. In this context the comparision of tile-types by their translation classes proves essential. In the plane case we give an especially simple condition: If the lengths of all pairwise parallel edges in the protoset are commensurable, then ALL primitive inflation tilings using this protoset are of finite local complexity. For (2) the relation to Delone multi sets and lattice substitution systems are established. This done, one can use a theorem of J.-Y. Lee and R.V. Moody, which answers the question essentially in general. But in the case where the considered point set can NOT be obtained as a model set, their algorithm will not terminate. We give two sufficient conditions which gives an answer in finite time in the latter case.Moreover we give a collection of many terms and facts, which are important in the context of nonperiodic tilings, an examination of nonprimitive inflation tilings and a detailled description of the construction of the half hex tiling as a model set with 2-adic, twodimensional internal space. Untersuchungsgegenstand der Arbeit sind Familien ('Spezies') von - hauptsächlich nichtperiodischen - Inflationspflasterungen in euklidischen Vektorräumen beliebiger Dimension. Es werden vor allem zwei Eigenschaften untersucht: (1) Lokal endliche Komplexität und (2) Darstellbarkeit als Model Sets (also durch ein'Cut-and-Project-Schema'), jeweils im Falle von Familien von Inflationsspezies mit ganzzahligem Inflationsfaktor. Zu (1) werden vier hinreichende Bedingungen formuliert, die sich direkt an den Mustersteinen ('Prototiles') der Pflasterungen oder den ersten Inflationen derselben ablesen lassen. Dabei erweist sich die Unterscheidung der Steintypen bezüglich ihrer Translationsklassen als wesentlich. Für den ebenen Fall ergibt sich ein besonders einfaches Kriterium: Sind die Längen aller jeweils parallelen Steinseiten der Mustersteine zueinander kommensurabel, so folgt lokal endliche Komplexität für JEDE primitiveInflationsspezies mit diesen Mustersteinen. Zu (2) wird der Zusammenhang hergestellt mit Delone--Multimengen und Gittersubstitutionssystemen. Dadurch kann man einen Satz von J.-Y. Lee und R.V. Moody anwenden, der die Frage im Prinzip beantwortet. Der von ihnen gelieferte Algorithmus terminiert allerdings nicht, falls diebetrachtete Menge KEINE Darstellung durch Model Sets besitzt. Die Arbeit liefert zwei hinreichende Kriterien, die in letztgenanntem Fall in endlicher Zeit eine Antwort liefern. Daneben finden sich in der Arbeit eine Zusammenstellung der vielen im Zusammenhang mit nichtperiodischen Pflasterungen wichtigen Begriffe und Aussagen, eine Untersuchung nichtprimitiver Inflationspflasterungen und die ausführlich beschriebene Konstruktion eines Cut--and--Project--Schemas mit 2-adischem, zweidimensionalem inneren Raum für das Halfhextiling. 383 170 148 Computational modelling of non-simple and anisotropic materials This work focuses on the modelling and simulation of non-simple and anisotropic materials, and consists of three primary parts. In the first part, a gradient elasticity approach for the modelling of fibre-reinforced composites with fibres possessing fibre-bending stiffness is studied. The particular approach is based on the incorporation of higher-gradient contributions of the deformation map in terms of the gradient of the spatial fibre direction field in the energy density function and can be regarded as an extension of the classic structural tensor approach. The second part of the contribution deals with the development of physically well-motivated gradient (crystal) plasticity formulations which rely on an extended form of the Clausius-Duhem inequality. In particular, incompatible plastic deformations are interpreted in terms of dislocation density tensors which are energetically accounted for in the formulations. The final part of the contribution addresses the modelling of evolving material symmetry groups. To be specific, a constitutive model for the simulation of deformation-induced anisotropy evolution infinite plasticity is elaborated. Die vorliegende Arbeit behandelt die Modellierung generalisierter sowie anisotroper Materialien und lässt sich in drei Abschnitte gliedern. Im ersten Abschnitt wird eine gradientenerweiterte Elastizitätstheorie zur Modellierung von faserverstärkten Verbundwerkstoffen, mit Fasern die eine Biegesteifigkeit aufweisen, untersucht. Der verwendete Ansatz basiert auf einer Erweiterung der Energiefunktion um Beiträge die höhere Gradienten der Deformationsabbildung, welche durch den Gradienten des räumlichen Faser-Richtungsfeldes definiert sind, beinhalten und kann als eine Erweiterung des klassischen Strukturtensoransatzes aufgefasst werden. Der zweite Abschnitt der vorliegenden Arbeit befasst sich mit der Entwicklung physikalisch wohl-motivierter gradientenerweiterter (Kristall-)Plastizitätstheorien basierend auf einer generalisierten Form der Clausius-Duhem Ungleichung. Insbesondere werden inkompatible plastische Deformationen im Rahmen von Versetzungsdichtetensoren interpretiert und energetisch in der Formulierung berücksichtigt. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung sich entwickelnder materieller Symmetriegruppen. Hierbei liegt der Fokus insbesondere auf der Entwicklung eines konstitutiven Modells, welches eine Anisotropieentwicklung, die durch finite plastische Deformationsprozesse induziert ist, abbilden kann. 384 263 243 Synthese amphiphiler Blockcopolymere und deren Anwendung in der Nanopartikel-basierten Katalyse The sustainable design of chemical processes from laboratory to industrial scale by taking into account the aspects of Green Chemistry is a core component of modern synthesis planning. In addition to catalysis per se, this also includes atom economy, catalyst recovery, avoidance of waste products, the use of cheap and environmentally friendly starting materials and solvents, and occupational safety. In order to connect all these aspects, catalysts were immobilized on tailor-made amphiphilic block copolymers, which were built up by RAFT-polymerization, in the context of the present dissertation. They are able to form micelles in an aqueous medium above the critical micelle concentration. Through the covalent incorporation of catalytically active species in the hydrophobic region of the block copolymers, they can function as nanoreactors and allow to carry out single step or multiple step reaction sequences in water as reaction medium. Specifically, L-proline for asymmetric aldol reactions and a Cu(I)/N-Oxyl system for the aerobic oxidation of alcohols according to STAHL were investigated. A covalent core crosslinking of prepared polymers was performed to stabilize the systems and make them compatible for the use of two or more catalysts in a one-pot catalysis. Likewise, the polymers were covalently immobilized on silica particles, allowing recovery of the catalysts by physical separation processes while preserving the quasi-homogeneous catalysis approach. The suitability of these systems for the respective individual reactions in an aqueous medium was proven. In addition, the core-stabilized systems were jointly used in one-pot- and tandem catalysis, thus combining the two individual catalysts to form a multi-step catalysis. Sequential one-pot catalysis in particular led to promising results. Die nachhaltige Gestaltung chemischer Prozesse vom Labor- bis zum Industriemaßstab unter Beachtung der Aspekte der Grünen Chemie ist ein Kernbestandteil moderner Syntheseplanung. Hierzu zählen neben der Katalyse an sich auch die Atomökonomie, Katalysatorrückgewinnung, Vermeidung von Abfallprodukten, die Verwendung günstiger und umweltfreundlicher Ausgangsstoffe und Lösungsmittel sowie Arbeitssicherheit. Um diese Punkte miteinander zu verbinden, wurden im Rahmen der vorliegenden Dissertation Katalysatoren an maßgeschneiderten amphiphilen Blockcopolymeren immobilisiert, welche mittels RAFT-Polymerisation aufgebaut wurden. Diese sind in der Lage, im wässrigen Medium oberhalb der kritischen Mizellbildungskonzentration Mizellen zu bilden. Über die kovalente Inkorporation katalytisch aktiver Spezies in dem hydrophoben Bereich der Blockcopolymere können die entstehenden Überstrukturen als Nanoreaktoren funktionieren und einzelne Reaktionen bzw. Reaktionssequenzen in Wasser als Lösungsmittel durchgeführt werden. Konkret untersucht wurden hierbei L-Prolin für asymmetrische Aldolreaktionen und ein Cu(I)/N-Oxyl-System für die aerobe Oxidation von Alkoholen nach STAHL. Eine kovalente Kernvernetzung hergestellter Polymere wurde durchgeführt, um die Systeme zu stabilisieren und somit kompatibel für den Einsatz von zwei oder mehr Katalysatoren in einer Eintopf-Katalyse zu machen. Ebenso wurden die Polymere kovalent auf Silicapartikeln immobilisiert, wobei eine Rückgewinnung der Katalysatoren durch physikalische Trennverfahren ermöglicht wurde und der quasi-homogene Katalyseansatz bewahrt blieb. Eine Eignung dieser Systeme für die jeweiligen Einzelreaktionen im wässrigen Medium konnte bewiesen werden. Zusätzlich wurden die kernstabilisierten Systeme gemeinsam in Eintopf- und Tandemkatalysen verwendet und die beiden Einzelkatalysen so miteinander zu einer mehrstufigen Katalyse verbunden. Hierbei führten vor allem die sequenziellen Eintopf- Katalysen zu vielversprechenden Ergebnissen. 385 316 297 Strukturbestimmung einer niedrig-dimensionalen Siliziumstruktur auf einer Au(110)-Oberfläche mittels Photoelektronenspektroskopie und Photoelektronenbeugung The present work deals with the structural investigation of silicon nano-ribbons on an Au(110) surface. Since the discovery of graphene, especially low-dimensional structures such as silicon nano-ribbons came into scientific focus, because they are predestined for applications in spintronics due to their electronic properties. Photoelectron spectroscopy is particularly suitable for the analysis of low-dimensional materials and their interface structure with the underlying substrate. A detailed chemical analysis using core level spectra of individual elements allows conclusions about local bondings of individual emitter atoms in the structure and their localization, i.e. at the surface or in the bulk. In addition, the signal intensity varies as a function of polar and azimuth angles due to diffraction and scattering of the emitted electron wave at adjacent atoms. From the resulting diffraction patterns the local environment of the atoms and the internal structure can be determined, allowing a detailed structural analysis. Here, all analysis was carried out in situ using synchrotron radiation at beamline 11 at the electron storagering DELTA. After successful preparation and chemical as well as structural analysis of the (2 × 1)-reconstructed Au(110) surface, the silicon nano-ribbons were prepared on the Au(110) substrate. The difference in the spectra between the Au 4f signals before and after silicon deposition shows a chemical bonding of the silicon atoms to the underlying substrate. The spectra of the silicon signal indicate that the silicon atoms are only located at the surface. Additionally, the silicon atoms occur in two different chemical environments in equal parts. The silicon diffraction pattern proves the growth in two chains of hexagonal ar- ranged silicon atoms with ’zigzag’-terminated edges. Each chain is located above a ’missing-row’ of the substrate. The strong interaction between the silicon nano-ribbons and the gold substrate results in a chemical bond bewteen some of the silicon and the gold atoms, which is the reason for the two chemical bondingenvironments of the silicon atoms. Die vorliegende Arbeit befasst sich mit der Strukturuntersuchung von Silizium Nano-Ribbons auf einer Au(110)-Oberfläche. Speziell niedrig-dimensionale Struk- turen wie Silizium Nano-Ribbons sind im Zuge der Entdeckung des Graphens von großem Interesse, da sie durch ihre elektronischen Eigenschaften für Anwendungen in der Spintronik prädestiniert sind. Die Photoelektronenspektroskopie eignet sich besonders zur Analyse dieser niedrig-dimensionalen Materialien und deren Grenzflächen zum darunterliegenden Substrat. Eine genaue chemische Untersuchung mithilfe von Detailspektren der Rumpfnive- aus einzelner Elemente ermöglicht Rückschlüsse über lokale Bindungen einzelner Emitteratome in der Struktur sowie deren Anordnung an der Oberfläche oder im Volumen. Zusätzlich variiert die Signalintensität als Funktion von Polar- und Azimutwinkel, bedingt durch Beugungs- und Streuungseffekte der emittierten Elek- tronenwelle an benachbarten Atomen. Aus den resultierenden Beugungsmustern kann die lokale Nahordnung der Atome und daraus die Struktur des untersuchten Systems bestimmt werden, was eine detaillierte Strukturanalyse erlaubt. Alle Untersuchungen wurden in situ mithilfe von Synchrotronstrahlung der Strahllinie 11 des Elektronenspeicherings DELTA durchgeführt. Nach erfolg- reicher Präparation sowie chemischer und struktureller Analyse der (2 × 1)- Oberflächenrekonstruktion des Au(110)-Substrats wurden die Silizium Nano- Ribbons auf dem Au(110)-Substrat präpariert. Der Unterschied zwischen den Detailspektren des Au 4f Signals vor und nach der Silizium-Deposition zeigt eine chemische Bindung der Siliziumatome zum darunterliegenden Substrat. Aus den Spektren des Silizium Signals wird ersichtlich, dass sich die Siliziumatome lediglich an der Oberfläche befinden und dort zu gleichen Teilen in zwei unterschiedlichen chemischen Umgebungen vorkommen. Das Beugungsmuster des Siliziums beweist das Wachstum in zwei Ketten hexago- nal angeordneter Siliziumatome mit „zigzag“-terminierten Rändern. Die Ketten liegen jeweils oberhalb einer fehlenden Atomreihe des Substrats. Die starke Interaktion zwischen den Silizium Nano-Ribbons und dem Goldsubstrat wird in einer Bindung eines Teils der Siliziumatome zum Gold deutlich, woraus auch die beiden chemisch unterschiedlichen Bindungsumgebungen der Siliziumatome resultiert. 386 114 122 Konzeption, Aufbau und Test eines Elektronenlinearbeschleunigers für eine Synchrotronstrahlungsquelle der 3. Generation Third generation synchrotron light sources consist out of different acceleration systems. The essential part is the storage ring, which can store the intense electron beam for hours and provide the synchrotron light to the users. Pre accelerators (injectors) generate and accelerate the required short electron bunches (ns - ms). Those injectors have to be carefully adapted to the storage ring. High requirements concerning beam intensity, beam quality and time structure have therefore to be fulfilled already by the injector accelerator.Within the context of this dissertation a 100MeV electron linear accelerator had been successfully designed, built and commissioned, suitable to serve the modern Suisse Light Source third generation synchrotron light source as an optimised injector. Eine Synchrotronstrahlungsquelle der 3. Generation besteht heute aus mehreren Beschleunigeranlagen. Zentraler Bestandteil ist zunächst der Speicherring, in dem der hochenergetische und intensive Elektronenstrahl über Stunden gespeichert wird und an dem die eigentliche Nutzung der Strahlung stattfindet. Vorbeschleuniger oder Injektoren erzeugen die zur Füllung des Speicherrings benötigten kurzen (ns - ms) Elektronenpulse. Die Vorbeschleuniger müssen an die Gegebenheiten des Speicherrings angepasst sein. Demzufolge werden sehr hohe Anforderungen an die Strahlintensität und Strahlqualität, sowie an die Zeitstruktur des Elektronenstrahls bereits im Injektor gefordert.Im Rahmen dieser Dissertation wurde ein 100MeV-Elektronenlinearbeschleuniger, als optimierter Injektor für eine Synchrotronstrahlungsquelle der 3. Generation ausgelegt, umgesetzt, aufgebaut und erfolgreich an der Swiss Light Source (SLS) in Betrieb genommen. 387 202 183 Gold catalyzed divergent scaffold synthesis from oxindole derived 1,6-enynes In chemical biology and drug discovery, the development of novel methods for efficient synthesis of structurally distinct molecular scaffolds holds an immense importance. Gold catalyzed enyne cycloisomerizations are a powerful tool to access a wide range of complex molecules owing to the tunable nature of gold complexes with ligand and reaction conditions. A number of reactions have disclosed the role of substrates, ligands of gold(I) catalyst and the nucleophiles to afford a variety of products with intriguing molecular frameworks. The development of a ”ligand directed divergent scaffold synthesis” (LDS) approach that aims to create structurally distinct molecular scaffolds by means of a single mode of catalysis on common substrates is presented in this work. In this strategy, when oxindole derived 1,6-enynes were treated with different gold complexes, the fate of the common bicyclic gold carbene intermediates could be steered by ligand variations in gold(I) complexes, and selectively led to three structurally distinct scaffolds, the spirooxindoles, quinolones, and the df-oxindoles. Biological investigation of the resulting compound collection in cell-based assays revealed bioactive small molecules based on three different scaffolds displaying orthogonal modulation in the activities of the hedgehog signaling pathway, autophagy and cellular proliferation. Die Entwicklung neuer Methoden zur effizienten Synthese strukturell verschiedener molekularer Gerüste ist von großer Wichtigkeit in der chemischen Biologie und der Entdeckung neuer Wirkstoffe. Die Gold katalysierte Enin-Cycloisomerisierung ist eine leistungsfähige Methode für den Zugang zu einer Vielzahl komplexer Moleküle, da die Natur der Goldkomplexe durch Änderung der Liganden und Reaktionsbedingungen einstellbar ist. Die genaue Erforschung der Substrate, Liganden des Gold(I)-Katalysators und der Nukleophile führt zu einer Vielfalt an Produkten mit interessanten molekularen Gerüsten. In dieser Arbeit wird die Entwicklung des Ansatzes einer divergierenden Gerüstsynthese, die durch Liganden dirigiert wird (engl. ligand directed divergent scaffold synthesis, LDS) präsentiert. Hierbei wird die Synthese strukturell verschiedener molekularer Gerüste durch nur einen Modus der Katalyse für gemeinsame Substrate angestrebt. Wenn die Oxindol-abgeleitete 1,6-Enine in der Gegenwart von Gold-Komplexen reagiert wurden, konnte der Reaktionsverlauf gängiger bicyclische Goldcarbenintermediate durch Variieren der Liganden des Gold(I)-Komplexes gesteuert werden. Als Resultat wurden selektiv zu drei verschiedener Gerüste erhalten: Spirooxindole, Chinolone und df-Oxindole. Die biologische Untersuchung der erhaltenen Substanzsammlung in Zell-basierten Experimenten ergab, dass die Moleküle, die auf drei verschiedenen Gerüsten basieren, die Aktivität des Hedgehog Signalwegs, Autophagie und Proliferation selektiv beeinflussen. 388 288 261 Quantum fluctuations and cosmic inflation This thesis addresses two topics: the inflationary perturbation spectrum and preheating after hybrid inflation. Quantum fluctuations in the inflationary universe provide a natural mechanism for the generation of primordial perturbations which seed the formation of cosmic structure. In this thesis we present a semi-analytical, and mathematically controlled, so-called uniform approximation. This approximation can be used for the calculation of scalar and tensor inflationary perturbations. Detailed calculations of the power spectra, the spectral indices and other observables are performed to leading and next-to-leading order in the uniform approximation, respectively. Explicit 'slow-roll' assumptions are avoided. A simple extension of the leading order, which is gained from the detailed understanding of the next-to-leading order, leads to excellent accuracy of the uniform approximation, which is demonstrated with several representative examples. The results are compared to standard slow-roll approximations as well as to exact numerical results. The techniques and numerical routines described here allow to calculate primordial perturbation spectra very efficiently with high precision and to constrain some models of inflation. Furthermore, this thesis provides a detailed analysis of some aspects of preheating after hybrid inflation. In the hybrid model the inflationary expansion is terminated by a phase transition of a symmetry-breaking field. During inflation this symmetry-breaking field is trapped in a false vacuum, becomes dynamically instable and performs a transition to the true vacuum. Herein the important influence of the back-reaction of quantum fluctuations is considered by using a bubble-resummation of the propagators. The problem of renormalization in a system of multiple and coupled fields is explicitly solved. The false vacuum transition after hybrid inflation, along with other physical observables, is analyzed with detailed numerical investigations reliably and the influence of back-reaction of quantum fluctuations is emphasized. Diese Doktorarbeit behandelt zwei Themengebiete: das inflationäre Störungsspektrum und die Vorerwärmungsphase im Anschluss an die Hybrid-Inflation. Quantenfluktuationen im inflationären Universum bilden einen natürlichen Mechanismus zur Erzeugung primordialer Störungen, aus denen kosmische Strukturen entstehen. In einem Teil der Arbeit präsentieren wir ein mathematisch kontrolliertes, semi-analytisches Näherungsverfahren zur Berechnung des inflationären Störungsspektrums für skalare und tensorielle Störungen. Detaillierte Berechnungen des Leistungsspektrums, des spektralen Index und anderer Observablen werden durchgeführt, zu führender und nächstführender Ordnung in einer uniformen Approximation sowie mit Fehlerschranken. Diese Berechnungen verzichten auf explizite 'slow-roll'-Annahmen. Zusammen mit einer einfach zu implementierenden Erweiterung der führenden Ordnung, welche wir aus dem detaillierten Verständnis nächstführender Ordnungen gewinnen, wird die ausgezeichnete Genauigkeit des Verfahrens uniformer Approximationen anhand verschiedener Beispiele demonstriert. Die Ergebnisse werden mit exakten numerischen Resultaten und der slow-roll-Näherung verglichen. Die vorgestellten Techniken sind zusammen mit den entwickelten Programmen von unmittelbarem Nutzen zur theoretisch präzisen Berechnung von primordialen Störungsspektren sowie der Einschränkung von einigen inflationären Modellen bzw. Modellparametern. Weiterhin werden einige Aspekte der Vorerwärmungsphase im Anschluss an die Inflation im Rahmen des sogenannten Hybrid-Modells detailliert untersucht. Die inflationäre Expansion endet in diesem Modell mit einem Phasenübergang eines symmetriebrechenden Feldes. Dieses symmetriebrechende Feld ist während der inflationären Phase in einem falschen Vakuumzustand gefangen und vollführt, dynamisch destabilisiert, einen Übergang zum wahren Vakuum. Indem eine Blasen-Resummation der Propagatoren formuliert wird, kann der wichtige Einfluss von Rückwirkungen der Quantenfluktuationen explizit berücksichtigt werden. Das Problem der Renormierung in einem System mit mehreren gekoppelten Kanälen wird gelöst. In detaillierten numerischen Simulationen wird so sehr zuverlässig der Phasenübergang nach der Hybrid-Inflation untersucht und die Bedeutung der Rückwirkungseffekte der Quantenfluktuationen herausgestellt. 389 486 448 On graph algorithms for large-scale graphs The algorithmic challenges have changed in the last decade due to the rapid growth of the data set sizes that need to be processed. New types of algorithms on large graphs like social graphs, computer networks, or state transition graphs have emerged to overcome the problem of ever-increasing data sets. In this thesis, we investigate two approaches to this problem. Implicit algorithms utilize lossless compression of data to reduce the size and to directly work on this compressed representation to solve optimization problems. In the case of graphs we are dealing with the characteristic function of the edge set which can be represented by Ordered Binary Decision Diagrams (OBDDs), a well-known data structure for Boolean functions. We develop a new technique to prove upper and lower bounds on the size of OBDDs representing graphs and apply this technique to several graph classes to obtain (almost) optimal bounds. A small input OBDD size is absolutely essential for dealing with large graphs but we also need algorithms that avoid large intermediate results during the computation. For this purpose, we design algorithms for a specific graph class that exploit the encoding of the nodes that we use for the results on the OBDD sizes. In addition, we lay the foundation on the theory of randomization in OBDD-based algorithms by investigating what kind of randomness is feasible and how to design algorithms with it. As a result, we present two randomized algorithms that outperform known deterministic algorithms on many input instances. Streaming algorithms are another approach for dealing with large graphs. In this model, the graph is presented one-by-one in a stream of edge insertions or deletions and the algorithms are permitted to use only a limited amount of memory. Often, the solution to an optimization problem on graphs can require up to a linear amount of space with respect to the number of nodes, resulting in a trivial lower bound for the space requirement of any streaming algorithm for those problems. Computing a matching, i. e., a subset of edges where no two edges are incident to a common node, is an example which has recently attracted a lot of attention in the streaming setting. If we are interested in the size (or weight in case of weighted graphs) of a matching, it is possible to break this linear bound. We focus on so-called dynamic graph streams where edges can be inserted and deleted and reduce the problem of estimating the weight of a matching to the problem of estimating the size of a maximum matching with a small loss in the approximation factor. In addition, we present the first dynamic graph stream algorithm for estimating the size of a matching in graphs which are locally sparse. On the negative side, we prove a space lower bound of streaming algorithms that estimate the size of a maximum matching with a small approximation factor. Die Anforderungen an Algorithmen hat sich in den letzten Jahren grundlegend geändert. Die Datengröße der zu verarbeitenden Daten wächst schneller als die zur Verfügung stehende Rechengeschwindigkeit. Daher sind neue Algorithmen auf sehr großen Graphen wie z.B. soziale Netzwerke, Computernetzwerke oder Zustandsübergangsgraphen entwickelt worden, um das Problem der immer größer werdenden Daten zu bewältigen. Diese Arbeit beschäftigt sich mit zwei Herangehensweisen für dieses Problem. Implizite Algorithmen benutzten eine verlustfreie Kompression der Daten, um die Datengröße zu reduzieren, und arbeiten direkt mit den komprimierten Daten, um Optimierungsprobleme zu lösen. Graphen werden hier anhand der charakteristischen Funktion der Kantenmenge dargestellt, welche mit Hilfe von Ordered Binary Decision Diagrams (OBDDs) – eine bekannte Datenstruktur für Boolesche Funktionen - repräsentiert werden können. Wir entwickeln in dieser Arbeit neue Techniken, um die OBDD-Größe von Graphen zu bestimmen, und wenden diese Technik für mehrere Klassen von Graphen an und erhalten damit (fast) optimale Schranken für die OBDD-Größen. Kleine Eingabe-OBDDs sind essenziell für eine schnelle Verarbeitung, aber wir brauchen auch Algorithmen, die große Zwischenergebnisse während der Ausführung vermeiden. Hierfür entwickeln wir Algorithmen für bestimme Graphklassen, die die Kodierung der Knoten ausnutzt, die wir für die Resultate der OBDD-Größe benutzt haben. Zusätzlich legen wir die Grundlage für die Betrachtung von randomisierten OBDD-basierten Algorithmen, indem wir untersuchen, welche Art von Zufall wir hier verwenden und wie wir damit Algorithmen entwerfen können. Im Zuge dessen geben wir zwei randomisierte Algorithmen an, die ihre entsprechenden deterministischen Algorithmen in einer experimentellen Auswertung überlegen sind. Datenstromalgoritmen sind eine weitere Möglichkeit für die Bearbeitung von großen Graphen. In diesem Modell wird der Graph anhand eines Datenstroms von Kanteneinfügungen repräsentiert und den Algorithmen steht nur eine begrenzte Menge von Speicher zur Verfügung. Lösungen für Graphoptimierungsprobleme benötigen häufig eine lineare Größe bzgl. der Anzahl der Knoten, was eine triviale untere Schranke für die Streamingalgorithmen für diese Probleme impliziert. Die Berechnung eines Matching ist so ein Beispiel, was aber in letzter Zeit viel Aufmerksamkeit in der Streaming-Community auf sich gezogen hat. Ein Matching ist eine Menge von Kanten, so dass keine zwei Kanten einen gemeinsamen Knoten besitzen. Wenn wir nur an der Größe oder dem Gewicht (im Falle von gewichteten Graphen) eines Matching interessiert sind, ist es mögliche diese lineare untere Schranke zu durchbrechen. Wir konzentrieren uns in dieser Arbeit auf dynamische Datenströme, wo auch Kanten gelöscht werden können. Wir reduzieren das Problem, einen Schätzer für ein gewichtsoptimales Matching zu finden, auf das Problem, die Größe von Matchings zu approximieren, wobei wir einen kleinen Verlust bzgl. der Approximationsgüte in Kauf nehmen müssen. Außerdem präsentieren wir den ersten dynamischen Streamingalgorithmus, der die Größe von Matchings in lokal spärlichen Graphen approximiert. Für kleine Approximationsfaktoren zeigen wir eine untere Schranke für den Platzbedarf von Streamingalgorithmen, die die Matchinggröße approximieren. 390 828 766 Development of site specific labeling strategies for protein modification and synthesis of Rab probes The development of methods for the chemical ligation of synthetic small molecules or peptides to proteins is a current frontier in chemical biology. Expressed protein ligation (EPL)has been extremely useful for the synthesis of various proteins in the past. In particular the concept of EPL elegantly demonstrates the usefulness of combining the fields of synthetic organic chemistry and molecular biology in order to address complex physiological and biochemical questions. The present study aimed at two facets: 1) establish several universal strategies to extend the EPL technology for site-specific protein modification and immobilization; 2) adapt the EPL methodology to the semi-synthesis of Rab proteins probes, which exert many important functions during vesicular transport in eukaryotic cells. Firstly, we developed a facile, efficient and mild strategy for the site-specific immobilization of proteins on surfaces by means of oxyamine ligation to generate protein microarrays. In our strategy the proteins are first readily modified with oxyamine groups at the C-terminus and then immobilized on ketone-coated slides. This immobilization strategy proceeds efficiently at neutral conditions (pH 7.0), and is exceptionally mild for protein immobilization in comparison to other methods. Furthermore, this strategy enables the direct immobilization of expressed proteins from crude cellular lysates without prior purification. The produced protein biochips can be used for the study of protein-protein interactions, as indicated by Rab-REP and PKA-antibody interaction studies. Our strategy expands the repertoire of protein immobilization methods and provides an alternative means to meet the various requirements for protein immobilization. Secondly, we presented the principle of using two chemoselective reactions to sitespecifically label a single protein in a one-pot reaction. We developed a general, facile and efficient strategy for N- and C-terminal dual-color labeling exemplified for the Rab7 protein using native chemical ligation and oxime ligation. The method is low in cost and easy to carry out. The reaction conditions are biocompatible and mild enough for protein modifications. The strategy presented here could be a general method for generating dual-labeled proteins, which could also have a wide range of applications for studying protein functions at the single molecule and cellular level. We have shown the the produced protein probe can be used to study protein refolding and protein-protein interactions by FRET studies. This study leads to the finding that both GDP and GppNHp can help GTPase to refold, and therefore point out a way to produce GppNHp-bound GTPase as indicated by successful semisynthesis of a RhoAGG protein. Thirdly, we presented the principle of a FRET strategy for monitoring EF-mediated nucleotide exchange using site-specifically labeled GEF and GTPase proteins. Using NCL and oxime ligation, we prepared N-terminal coumarin-labeled GEFs and C-terminal fluorescein-labeled GTPases. We constructed the coumarin-GEF:GTPase-fluorescein complex, which showed a significant intermolecular FRET effect. The FRET signal was disrupted by binding of GDP or GTP and allowed direct detection of the GEF:GTPase interaction. Transient kinetic studies based on the FRET signal change were used to monitor the GEF activity and nucleotide binding. The studies led to a consistent conclusion on the GEF mechanism involving allosteric competition between GDP/GTP and GEF’s interaction with a GTPase. The strategy presented here could be a general method that is applicable to other GEFs and GTPases, and may open up a new avenue for the identification of GEF inhibitors and for studying GEF mechanisms. Fourthly, we presented a general strategy using tandem EPL and click chemistry to sitespecifically install hydrophobic GerGer modifications into proteins. The two-step ligation is quantitative, which makes the purification of ligated protein much facile. The approach yielded correctly folded and functional geranylgeranylated Rab GTPases, as could be inferred by their ability to interact with REP as well as to accept the second GerGer group in prenylation. The ligation strategy may open up a new avenue for production of lipoproteins that are used in various biological studies. Finally, we have used a facile method of oxime ligation to produce a series of PEGylated Rab protein probes for prenylation and localization studies. The replacement of Rab Cterminal region with an unnatural PEG moiety did not perturb Rab prenylation in vitro and in vivo. These results further elucidated the mechanism of Rab prenylation, i.e. there is no specificity required in Rab C-terminus hypervariable regions before and after the CIM motif for Rab prenylation. Using this series of Rab probes, we further investigated the issue that whether the C-terminal hypervariable region contributes to Rab targeting. We found that the membrane targeting mechanisms for Rab-family proteins are more complex then previous propose. For Rab1 and Rab5, the C-terminal hypervariable regions do not contribute to the membrane targeting. However, the replacement of C-terminal sequence with chemical linkers in several Rab proteins indeed disrupt their membrane targeting, implying that in these Rab proteins the C-terminal hypervariable region is important for biological function. This work provides an example of chemical tools can be used to challenge native biomolecular functions, leading to better understanding the Rab prenylation and targeting mechanisms. Die Entwicklung von Methoden für die chemische Ligation von synthetischen kleinen Molekülen oder Peptiden, Proteinen ist eine aktuelle Grenze in der chemischen Biologie. Exprimierte Protein-Ligation (EPL) war äußerst nützlich für die Synthese von verschiedenen Proteinen in der Vergangenheit. Insbesondere das Konzept der EPL elegant zeigt den Nutzen der Kombination der Felder der synthetischen organischen Chemie und Molekularbiologie, um komplexe physiologische und biochemische Fragen anzugehen. Die vorliegende Studie an zwei Facetten einzuführen: 1) herzustellen mehrere universale Strategien, um die EPLTechnologie für eine ortsspezifische Proteinmodifikation und Immobilisierung erstrecken; 2) Anpassung der EPL Methodik auf die Halbsynthese Rab Proteine Sonden, die mehrere wichtige Funktionen ausüben während vesikulären Transport in eukaryotischen Zellen. Erstens haben wir eine einfache, effiziente und leichte Strategie für die ortsspezifische Immobilisierung von Proteinen an Oberflächen durch Ligation an Oxyamingruppe Proteinmikroarrays erzeugen. In unserer Strategie die Proteine werden zunächst leicht mit Oxyamingruppe Gruppen am C-Terminus modifiziert und anschließend immobilisiert auf Keton-beschichtete Objektträger. Diese Immobilisierung Strategie effizient verläuft bei neutralen Bedingungen (pH 7,0), und ist besonders mild zur Immobilisierung von Proteinen im Vergleich zu anderen Methoden. Darüber hinaus ermöglicht diese Strategie die direkte Immobilisierung von exprimierten Proteinen aus rohem Zelllysaten ohne vorherige Reinigung. Die produzierten Protein Biochips können für die Untersuchung von Protein-Protein- Wechselwirkungen, wie durch Rab-REP und PKA-Antikörper-Wechselwirkung Studien gezeigt verwendet werden. Unsere Strategie erweitert das Repertoire der Immobilisierung von Proteinen Methoden und bietet eine alternative Möglichkeit, um die verschiedenen Anforderungen für die Immobilisierung von Proteinen erfüllen. Zweitens haben wir das Prinzip der Verwendung von zwei chemoselektive Reaktionen auf ortsspezifisch kennzeichnen ein einzelnes Protein in einer Eintopfreaktion. Wir entwickelten einen allgemeinen, einfache und effiziente Strategie für die N-und C-terminalen zweifarbige Kennzeichnung für das Protein unter Verwendung Rab7 native chemische Ligation und Oxim veranschaulicht. Das Verfahren ist kostengünstig und einfach durchzuführen. Die Reaktionsbedingungen sind biokompatibel und mild genug für die Protein-Modifikationen. Die Strategie hier vorgestellte könnte ein allgemeines Verfahren zur Erzeugung doppelt markierte Proteine, die ebenfalls könnte eine Vielzahl von Anwendungen zum Studium Proteinfunktionen am einzigen Molekül und zellulärer Ebene. Wir haben gezeigt, das das gebildete Protein-Sonde verwendet werden, um Protein-Umfaltung und Protein-ProteinWechselwirkungen durch FRET-Untersuchungen zu untersuchen. Diese Studie führt zu der Erkenntnis, dass sowohl BIP als auch GppNHp kann GTPase helfen, falten, und deshalb darauf, einen Weg zu GppNHp-gebundenen GTPase, wie sie durch erfolgreiche Semisynthese eines RhoA-GG Protein angegeben. Drittens haben wir das Prinzip einer FRET-Strategie für die Überwachung GEF-vermittelten Nukleotid-Austausch mit Website-spezifisch markierten GEF und GTPase-Proteine. Verwendung NCL und Oxim bereiteten wir N-terminalen Cumarin-markierten GEFs und Cterminalen fluoresceinmarkierten GTPasen. Wir konstruierten die Cumarin-GEF:GTPase- Fluorescein-Komplex, der eine signifikante intermolekulare FRET-Effekt zeigte. GTPase Interaktion: das FRET-Signal wurde durch Bindung von GDP oder GTP und erlaubt den direkten Nachweis des GEF gestört. Transient kinetische Studien zur FRET Signaländerung bezogen wurden verwendet, um die Aktivität und GEF Nukleotidbindung überwachen. Die Untersuchungen führten zu einer konsistenten Rückschluss auf die GEF Mechanismus mit allosterischen Wettbewerb zwischen GDP / GTP und GEF die Interaktion mit einer GTPase. Die vorgestellte Strategie könnte hier eine allgemeine Methode, die für andere GEFs und GTPasen ist, und kann eröffnen einen neuen Weg für die Identifizierung von GEF-Inhibitoren und für das Studium GEF-Mechanismen. Viertens stellten wir eine allgemeine Strategie mit Tandem EPL und klicken Chemie ortsspezifisch installiert hydrophoben Gerger Modifikationen in Proteine. Das zweistufige Ligation ist quantitativ, wodurch die Reinigung des Proteins wesentlich ligierten facile. Der Ansatz ergab korrekt gefaltete und funktionelle geranylgeranyliert Rab GTPasen, wie durch ihre Fähigkeit, mit REP sowie interagieren, um die zweite Gruppe in Gerger Prenylierung akzeptieren abgeleitet werden könnten. Die Ligation kann eröffnen einen neuen Weg zur Herstellung von Lipoproteinen, die in verschiedenen biologischen Studien verwendet werden. Schließlich haben wir ein einfaches Verfahren von Oxim Ligierung, um eine Reihe von PEGyliertem Rab-Protein-Sonden für Prenylierung und Lokalisationsstudien produzieren. Der Ersatz von Rab C-terminalen Region mit einer unnatürlichen PEG-Gruppierung nicht stören Rab Prenylierung in vitro und in vivo. Diese Ergebnisse den Mechanismus aufgeklärt Rab Prenylierung, dh es besteht keine Spezifität in Rab C-Terminus hypervariablen Regionen vor und nach dem Motiv für CIM Rab Prenylierung erforderlich. Mit diesen Reihe von Sonden Rab wir weiter untersucht, ob das Problem, dass die C-terminalen hypervariablen Bereich nach Rab Targeting beiträgt. Wir fanden, dass die Membran Targeting-Mechanismen für die Rab-Proteine Familie komplizierter als in früheren schlagen sind. Für Rab1 und Rab5, werden die C-terminalen hypervariablen Regionen nicht an die Membran-Targeting beitragen. Allerdings ist die Ersetzung der C-terminalen Sequenz mit chemischen Linker in mehreren Rab Proteine tatsächlich stören ihrer Membran-Targeting, was bedeutet, dass in diesen Rab- Proteine der C-terminalen hypervariablen Region ist wichtig für biologische Funktion. Diese Arbeit stellt ein Beispiel für chemische Werkzeuge verwendet werden, um einheimische biomolekularen Funktionen anzufechten, was zu einem besseren Verständnis der Rab Prenylierung und Targeting-Mechanismen. 391 347 278 Analyse diskreter Flüssigkeits-Gasströmungen mit optischen Fasersensoren Within the graduate colleg "GRK 358" at the chair of mechanical process engineering at Dortmund University a fiber-optic measuring technique was developed for the characterisation of the multiphase flows. The laser light is injected into a fiber, in which the reflection of the light at the end of the fiber is measured, which depends on the fluid in contact. The phase change of the fluid at the fiber sensor can be determined by the analysis of the light reflection signals. At first, water drops were examined, impinging onto at the end of a single fiber sensor. A complex light signal is generated. Theoretical calculations for the light reflection at the end of the sensor were carried out. Compared to the results of experiments the signals of impingement experiments of the water drops were explained. With this knowledge the speed of water drops was measured by use of a combination of two fibers. The measured speed of the phase boundary by the fiber sensors was validated by the photographs from a high-speed camera. The results of both measuring methods show good agreement. In the second section the fiber sensors were used for the characterisation of foams. The interface between the foam and the liquid can be simply determined with one fiber sensor. In case of a highly loading gas dispersion in the liquid the interface between the foam and the liquid the application of a second fiber is successful. The foam speed can be measured by the use of the combination of two fibers. The measured data from the two fibers were evaluated by means of the cross correlation method. Not only the foam speeds, but also the average bubble sizes of the foam can be determined from these signals. A correction faktor k was introduced for the calculation of the bubble size. After correction with this factor, the bubble size agrees well with the bubble size in photos from a camera. In addition, the gas loading of wet foams and gas loading of the gas dispersion in the liquid can be calculated with a special evaluation method. Im Rahmen des Graduiertenkollegs GRK358 mit dem Thema "Optische Messmethoden in den Ingenieurwissenschaften" wurde am Lehrstuhl für Mechanische Verfahrenstechnik an der Dortmund Universität eine faseroptische Messtechnik zur Charakterisierung von Mehrphasenströmungen entwickelt. Die Technik basiert auf der Einkopplung von Laserlicht in eine Faser, wobei die vom benetzenden Fluid abhängige Reflexion des Lichts am Faserende gemessen wird. Durch die Auswertung der Lichtreflexion kann der Phasenwechsel des Fluids am Fasersensor bestimmt werden. Zuerst wurden hier auf das Faserende aufprallende Wassertropfen mit einer einzelnen Faser untersucht. Dies führt zu einem komplexen Lichtsignal. Dazu wurden theoretische Berechnungen für die Lichtreflexionen am Sensorende durchgeführt und diese mit den Ergebnissen aus Abtropf- und Aufprallversuchen verglichen. Darauf aufbauend wurde die Geschwindigkeit der Wassertropfen mittels zweier in Bewegungsrichtung versetzter Fasern bestimmt. Die gemessenen Geschwindigkeiten der Phasengrenzen wurden durch Aufnahmen mit einer Hochgeschwindigkeitskamera überprüft. Im zweiten Abschnitt wurden die Fasersensoren für die Charakterisierung von Schäumen eingesetzt. Mit dem Fasersensor kann die Grenze zwischen dem eigentlichen Schaum und der Blasenströmung einfach bestimmt werden. Durch eine zusätzliche Faser kann die Grenze zwischen dem Schaum und der Flüssigkeit erfasst werden, in der eine hoch beladende Blasenströmung auftritt. Die Schaumgeschwindigkeit kann durch die Kombination von zwei Fasern gemessen werden. Mit Hilfe des Korrelationsverfahrens wurden die Messdaten ausgewertet. Hiermit können nicht nur die Schaumgeschwindigkeiten, sondern auch die durchschnittlichen Blasengrößen bestimmt werden. Für die Berechnung der Blasengröße wurde ein Korrekturfaktor k eingeführt. Er berücksichtigt die zufällige Positionierung innerhalb von der als sphärisch angenommener Blasen. Nach der Korrektur der Messergebnisse für die Blasengröße besteht gute Übereinstimmung mit den Fotos der Kamera. Außerdem wurde die Gasbeladung des Kugelschaums bzw. des chaotischen Mischbereichs in der Flüssigkeit über eine spezielle Auswertungsmethode berechnet. 392 701 635 Herstellung unilamellarer Vesikel durch Phasentransferprozesse English Summary: This thesis is focused on the production of unilamellar vesicles by phase transfer processes. Methods of colloid and interface science, as for example measurements of interfacial tension, shear rheology, static and dynamic light scattering, were applied to characterise adsorbed surfactant films at the water/ oil-interface and the size and encapsulation efficiency of the vesicles. The kinetics of adsorption showed a decrease in interfacial tension in the choosen concentration range (above cmc) and a fast adsorption at the interface (lasting only few seconds). The plateau values of the interfacial tension (2-10 mN/m) suggest a complete occupancy of surfactant at the water/ oil-interface, which is necessary to form an intact vesicle membrane. The shear rheological properties of the surfactant films indicate strong viscous values. This enables a simple reorganization of single surfactant molecules in the film promoting the formation of a bent vesicle membrane. Vesicles were produced by four different phase transfer methods. In all methods a water phase was covered by an oil phase. Surfactants were dissolved in the oil or in the water phase. To produce vesicles in the size range of several mm, a solution of sugar, stained with aniline blue, was dropped through the oil into the lower water phase. The obtained vesicles were 1-3 mm in diameter and contained oil encapsulated within membrane. Such “trapped” oil induced low stabilities of the vesicles in a time interval ranging from seconds to hours. Formation of vesicles was further dependent on the type of surfactant and the choosen sugar concentration. In the second method the phase transfer was applied by centrifugation. An emulsion, generated by ultrasonication, or microemulsion, was filled into the oil phase and the solution was then centrifuged. A higher amount of water in the emulsion and a lower velocity of centrifugation resulted in a higher vesicle size, as detected by dynamic light scattering. Further, the vesicle size was dependent on the solvent and salt concentration of the water phase. The production of vesicles by phase transfer of microemulsions displayed an opposite dependence on the vesicle size related to the water amount in the emulsion. Vesicles could be characterized by TEM-measurements. Static light scattering measurements indicate membrane sizes of about 2 to 8 nm, thus suggesting the unilamellarity of the produced vesicles. Vesicles produced by density differences were observed microscopically. At this purpose, glucose was solved in the lower water phase and saccharose was solved in the drop phase of the emulsion. Due to density differences, the emuslsion droplets gravitate into the lower water phase forming vesicles. A higher sugar concentration and a higher solvent viscosity/ density resulted in smaller vesicles. Finally, production of vesicles in a flow field was developed. In first instance, the water droplets were forced down through the surfactant film at the interface and formed vesicles with a size range of several mm. In a second example an electro spray mechanism was used.. The vesicle size was dependent of the amount of water and the solvent. Vesicles with phospholipids and Span® 80, containing additives like PEG 400 and DCP, could be also produced. The encapsulation efficiency was observed by fluorescence spectroscopy. The self-quenching fluorophore carboxyfluorescein was encapsulated in the vesicles and subsequent discharged by adding a detergent. The intensity and correlated concentration of the vesicle and vesicle/ detergent solutions were measured. An encapsulation efficiency of about 10% could be achieved for all observed methods. Two important parameters for the vesicles size can be summarised. The vesicles size is dependent on the bending elasticity of the surfactant film at the interface. Theoretical approaches are reported in the literature[97], which correlate the energy of the bending elasticity with the gravitational force inserted in the system in relation to the vesicle size. Experimental data are in good agreement with the expected theoretical values. Furthermore, the vesicle size is dependent on the coalescence and sedimentation of the emulsions droplets. The faster these processes occur the broader is the observed size distribution of the vesicles. A change in the stability of the emulsion and the related transfer time offers the possibility to customize the vesicle size distribution. By phase transfer processes, vesicles of surfactants with applicable structure in a broad size range can be produced and easily filled. Diese Arbeit beschäftigte sich mit der Herstellung unilamellarer Vesikel mithilfe von Phasentransferprozessen. Es wurden kolloidchemische Methoden wie z.B. Grenzflächenspannungsmessungen, Scherrheologie, statische und dynamische Lichtstreuung verwendet um die Eigenschaften der an Wasser/ Öl-Grenzflächen gebildeten Tensidfilme und die Größe und Einbaueffizienz der Vesikel zu untersuchen. Der Verlauf der Grenzflächenspannung zur Untersuchung der Adsorptionskinetik zeigte im gewählten Konzentrationsbereich (oberhalb der CMC) eine sehr schnelle Adsorption im Bereich von wenigen Sekunden an die Grenzfläche. Die Endwerte der Grenzflächenspannungen (2-10 mN/m) deuten auf eine vollständige Belegung der Wasser/ Öl-Grenzflächen hin, die fur die Ausbildung von Vesikeln mit einer intakten Membran notwendig sind. Die scherrheologischen Messugnen deuten auf stark viskose Eigenschaften der Tensidfilme hin. Dies führt zu einer leichteren Reorganisation einzelner Tensidmolekule im Film hin, was die Ausbildung einer gekrümmten Vesikelmembran begünstigt. Die Vesikel wurden durch 4 verschiedene Methoden des Phasentransfers hergestellt. Hierzu wurde fur alle Methoden eine Wasserphase mit einer Ölphase überschichtet. Tenside wurden entweder in der Öl- oder in einigen Fällen auch in der Wasserphase gelöst. Zur Herstellung von Vesikeln im mm-Bereich wurde eine mit Anilinblau angefärbte Zuckerlösung durch die Ölphase zur Wasserphase getropft. Die erhaltenen Vesikel waren 1-3 mm groß und wiesen eingebautes Öl in der Membran auf. Dieses Öl bewirkte jedoch eine geringe Stabilität der Vesikel, die im Bereich von Sekunden bis Stunden lag. Die Vesikelbildung war weiterhin abhängig von der Tensidart und der gewählten Zuckerkonzentration. Die zweite untersuchte Methode bediente sich des Phasentransfers durch Zentrifugation. Hierfür wurden Emulsionen, hergestellt im Ultraschallbad, oder Mikroemulsionen zur Ölphase gegeben und die Lösungen zentrifugiert. Mithilfe der dynamischen Lichtstreuung konnte gezeigt werden, dass ein höherer Wasseranteil in der Emulsion und eine niedrigere Zentrifugationsgeschwindigkeit zu größeren Vesikeln im nm-Bereich fuhrte. Auch eine Abhängigkeit der Vesikelgröße von Lösungsmittel und Salzgehalt der Wasserphase konnte gezeigt werden. Die Herstellung von Vesikeln durch Phasentransfer von Mikroemulsionen wies eine gegenläufige Abhängigkeit der Vesikelgröße vom Wasseranteil auf. Mithilfe von TEM-Aufnahmen konnte die Herstellung von Vesikeln bestätigt werden und mithilfe der statischen Lichtstreuung konnte eine Membrandicke von 2-8 nm gemessen und berechnet werden, was auf die Unilamellarität der Vesikel schliessen lässt. Durch Dichtevarianz hergestellte Vesikel im ƒÊm-Bereich wurden mikroskopisch nachgewiesen. Hierfür wurde der unteren Wasserphase Glucose und dem Wasseranteil der Emulsion Saccharose zugesetzt. Aufgrund von unterschiedlichen Dichten sanken die Emulsionstropfen unter Ausbilung von Vesikeln in die untere Wasserphase. Je größer die gewählte Zuckerkonzentration und je höher die Viskosität/ Dichte des Lösungsmittels, desto kleiner waren die erhaltenen Vesikel. Im letzten Schritt wurden Strömungsapparaturen zur Herstellung von Vesikeln entwickelt. Die erste Apparatur beruht auf dem Durchstoßen des Grenzflächenfilms und führt zu Vesikel im mm-Bereich. Die zweite Apparatur beruht auf dem Mechanismus eines Electro-Sprays. Es zeigte sich eine Abhängigkeit der Vesikelgröße vom Wasseranteil und Lösungsmittel. Auch mit Phospholipiden sowie SpanR 80 und Zusätzen von PEG 400 oder DCP konnten mithilfe dieser Apparatur Vesikel hergestellt werden. Die Einbaueffizienz wurde durch Fluoreszenzmessungen untersucht. Hierzu wurde der selbstquenchende Fluorophor Carboxyfluorescein in die Vesikel eingebaut und die Intensität und die damit verbundene Konzentration vor und nach der Zerstörung der Vesikel durch Detergenzien untersucht. Es zeigte sich für fast alle untersuchten Methoden eine Einbaueffizienz von ca. 10%. Zwei wesentliche Einflüsse auf die Vesikelgröße lassen sich zusammenfassen. Die Vesikelgröße ist abhängig von der Biegesteifigkeit des Tensidfilms an der Grenzfläche. Es wurde in der Literatur[97] ein theoretisches Modell gefunden, dass einen Zusammenhang zwischen der Energie der Biegesteifigkeit und der in das System eingebrachten Gravitationskraft in Abhängigkeit der Vesikelgröße beschreibt. Ein Vergleich der theoretischen und experimentellen Daten zeigte eine relativ gute Übereinstimmung. Die Vesikelgröße ist weiterhin abhängig von der Koaleszenz und Sedimentation der Emulsionstropfen. Je schneller dies erfolgt, desto breiter war die Größenverteilung der erhaltenen Vesikel. Eine Änderung der Emulsionsstabilität und damit notwendigen Transferzeit ermöglicht daher eine Anpassung der Größenverteilung der Vesikel. Mithilfe von Phasentransferprozessen können Vesikel in einem breiten Größenbereich aus Tensiden, die eine geeignete Struktur aufweisen, hergestellt und einfach mit Wirkstoffen gefüllt werden. 393 177 173 Questionnaire Monitoring Behavior in Schools (QMBS). Description of the scale „Questionnaire Monitoring Behavior in Schools“ (QMBS) in English and German language Verlaufsdiagnostik für Verhalten in der Schule (DBR-MIS). Beschreibung der Skala „Verlaufsdiagnostik für Verhalten in der Schule“ (DBR-MIS) in deutscher und englischer Sprache We developed a multidimensional Direct Behavior Rating (DBR-MIS) with different dimensions for externalizing, internalizing, and positive behaviors that are relevant in daily classroom situations. Along the lines of other established screening tools (i.e., the Strengths and Difficulties Questionnaire (SDQ); Goodman, 1997, 2001; Voss & Gebhardt, 2017), we created two for dimensions for externalizing problems (disruptive behavior (DB); academic engagement problems (AEP)), two dimensions for internalizing problems (depressive and anxious behaviors (DAB); social interactions problems (SIP)), and two dimensions for positive behaviors in school (scholastic behavior (SB) and prosocial behavior (PS)). We constructed three new items per dimension for this DBR. We adapted the items to measure a single behavior, which can be observed in one school hour. We constructed the dimensions referring to the SDQ and used the wording from the ICD-10. All items had 7 categories from ‘never’ till ‘always’, which is one suggested procedure of Christ, Riley-Tillman and Chafouleas (2009). All items were unidirectional. Wir haben ein multidimensionales direct behavior rating (DBR-MIS) mit verschiedenen Dimensionen für die Bereiche externalisierendes und internalisierendes Verhalten sowie für schulbezogenes, prosoziales Verhalten entwickelt. Dabei wurde sich an etablierten Screening Verfahren, wie dem Fragebogen über Stärken und Schwächen (SDQ; Goodman, 1997, 2001; Voss & Gebhardt, 2017), orientiert. Es wurden zwei Dimensionen für externalisierendes Verhalten (Störendes und auflehnendes Verhalten (SAV); Verhaltensprobleme beim Lernen (VPL)), zwei Dimensionen für internalisierendes Verhalten (Depressives und ängstliches Verhalten (DAV); Probleme in sozialen Interaktionen (PSI)) und zwei Dimensionen für positives Schulverhalten (Schulbezogenes Verhalten (SV); Prosoziales Verhalten (PS)) entwickelt. Jede Dimension des DBRs besteht aus drei neuen Items. Die Items wurden adaptiert um eine einzelne Verhaltensweise innerhalb einer Schulstunde beobachten zu können. Die Testkonstruktion orientiert sich an den Dimensionen des SDQs sowie den Begrifflichkeiten der ICD-10. Alle Items haben sieben Antwortkategorien von ‚nie‘ bis ‚immer‘, wie es von Christ, Riley-Tillman und Chafouleas (2009) vorgeschlagen wurde. Alle Items sind unidirektional. 394 264 273 Development and characterization of in vitro microarray technologies for cell biology Die Entwicklung und Charakterisierung von in vitro Mikroarray‐Verfahren für die Zellbiologie Modern cell biology is interested in the use of reproducible, quantitative and high-throughput analytical techniques. The aim of this thesis is the development and characterization of microarray technologies for anti-cancer therapy and neurotoxicity testing applications. The techniques and tools are based on cell micropatterning technologies and are accessible to biologists worldwide. PDMS (Polydimethylsiloxane) microcontact printing (µCP) was used for the reliable parallel mass production of highly uniform 3D tumour spheroids. The different metabolic gradients make this bio-analytical model a reliable tool for the in situ or ex situ analysis of potential anti-cancer treatments as well as the physical and biological aspects that affect chemosensitivity. The micropatterned research is extended to a spatially-ordered analytical display for high-throughput neurotoxicity screening with standardized neurite outgrowth length. This involved the development of a novel bilayer membrane plasma stencilling method. Bilayer plasma stencilling is a simple, rapid, inexpensive, reproducible and effective method to pattern neurons. The network formation assay (NFA) uses interconnectivity as a precise and sensitive analytical end-point to read-out and distinguish between cytotoxicity and neurotoxicity. In addition, the NFA was adapted to the needs of the gold standard primary cortical neurons and neuronal precursor cells using µCP on a cell repellent PLL-g-PEG background. Taken together, this thesis demonstrates the development of microarray technologies for the realization of spatially standardized, highly reproducible and highthroughput cell assays to address modern challenges in cell biology. The assays were developed with the aim to be reliable, inexpensive, easy and adoptable for scientists with a minimum of equipment and expert knowledge. Die moderne Zellbiologie hat großes Interesse an Hochdurchsatz-Techniken, die reproduzierbare und quantitative Ergebnisse liefern. Ziel dieser Arbeit war die Entwicklung und Charakterisierung von Mikroarray-Technologien für Anwendungen in der Krebs-Therapie und der Neurotoxikologie. Die hier verwendeten Techniken und Werkzeuge basieren auf Mikrodruckverfahren („micropatterning“) für Zellen und sind Biologen weltweit zugänglich. PDMS (Polydimethylsiloxan) „microcontact printing“ (µCP) wurde für die parallele Massenproduktion von hochgradig homogenen 3D Tumor Sphäroiden verwendet. Die verschiedenen metabolischen Gradienten ebenso wie die auftretende Chemosensitivität machen dieses bio-analytische Modell zu einem verlässlichen Instrument für die in situ oder ex situ Analyse von potentiellen Krebsmitteln. Das Mikrodruckverfahren wurde weiterentwickelt, um ein räumlich angeordnetes analytisches System für neurotoxische Hochdurchsatz-Screenings mit standardisierten neuronalen Auswuchslängen zu entwickeln. Dies beinhaltete die Entwicklung einer neuen Methode, die Doppelmembranschicht Technik, welche mittels Plasma Strukturen in Oberflächen brennt. Die Doppelmembranschicht Technik ist einfach in der Anwendung, schnell, günstig, reproduzierbar und eine sehr effektive Methode um Neuronen strukturiert anzuordnen. Das „Network Formation Assay“(NFA) benutzt Verbindungen zwischen Neuronen als präzisen und sensitiven analytischen Endpunkt, um zwischen Zytotoxizität und Neurotoxizität zu unterscheiden. Zudem wurde das NFA an die Bedürfnisse und Wachstumsbedingungen von kortikalen Primärzellen (Goldstandard) und neuronalen Stammzellen angepasst. Das NFA wurden mittels µCP auf einer zellabweisenden Polyethylenglykol Oberfläche hergestellt. Diese Doktorarbeit demonstriert die Entwicklung von Mikroarray Technologien für die Umsetzung von räumlich angeordneten und standardisierten, hervorragend reproduzierbaren und für Hochdurchsatzverfahren geeigneten Zellassays, welche Probleme und Fragestellungen in der Zellbiologie angehen. Diese Assays wurden unter den Gesichtspunkten entwickelt, zuverlässig, günstig, einfach in der Handhabung und mit minimalem Wissen und Equipment durchführbar zu sein, damit möglichst viele Wissenschaftler die Systeme übernehmen und anwenden können. 395 227 171 Working time and work organisation. The role of production and labour markets in international comparison This paper examines the link between working time and work organisation. It is shown, firstly, that the dynamic of change in working time is today generated in both product and labour market. While the ever quickening pace of economic activity is leading to the removal of all time restrictions on deployment schedules, workers themselves are seeking to strike a balance between the various areas of their life, which inevitably places restrictions on employee rosters. Secondly, it has become clear that only a small number of firms are introducing decentralised, post-Taylorist forms of work organisation. At the same time, however, a revival of Taylorism can also be detected, which is not based on standard working times as in the past but on the coordination of groups of employees with differing working times. Thirdly, it is shown, since the various forms of work organisation are becoming more differentiated, that a range of different strategies must be developed if a policy of work redistribution is to be successfully implemented. In post-Taylorist forms of work organisation with a high degree of self-organisation excessive long working times spread out. In Taylorist forms of work organisation with short working times the key issue is the willingness of employees to accept changes in their working time at short notice. Arbeitszeit und Arbeitsorganisation 396 337 323 Modellierung der Last- und Erzeugungssituation dezentraler Versorgungsgebiete zur Bestimmung der Systemflexibilität Due to the long-term transformation of the energy system, the share of fluctuating feed-in to the electricity supply grid increases. Thus flexibility options are needed to solve the conflict between an increasing sustainability and a continuing security of supply. In decentralized energy supply systems, flexibility options cover generation and storage plants as well as flexible loads. Due to the mixed technology structure and the dynamic requirements of the supply task it is difficult to assess the flexibility of the overall system in general.In this thesis a method for the evaluation of the system flexibility of a spatially and technically defined decentralized energy supply system is developed. Since flexibility options have to assure the supply security, a main challenge is finding a modelling approach for the holistic description of supply areas. The components of the system are location, topology, plant, building, household and appliance. At first a toolbox for the generic description of scenarios is developed. Each component is represented by specified model bricks. With appropriate methods the dynamic load and generation situation for the end energy sources gas, electricity and heat is depicted. The “activity based load model“ was developed in order to simulate fluctuating electric and thermal loads in the magnitude of 1...200 buildings. Therefore specific characteristics of the household and the appliances are considered. The plant operation is scheduled using a mixed-integer linear optimization model which can be applied to all scenarios. Finally the potential of the system is evaluated, serving as a virtual battery and absorb or provide electric energy if needed besides the primary supply task. Using linear optimization techniques, the spontaneous dispatch of electricity is tested and varied regarding the parameters starting time, power and duration. Subsequently the results of these test sequences are condensed to the parameters capacity and power. Thereby complex and heterogeneous supply systems can be evaluated and compared by those parameters without considering exogeneous constraints. Yet this evaluation method is limited, because in contrast to physical energy storages the parameters of the virtual battery cannot be calculated deterministically. Durch den langfristig angelegten Umbau des Energiesystems nimmt der Anteil fluktuierender Einspeisung in das Stromversorgungsnetz zu. Um den Zielkonflikt zwischen steigender Nachhaltigkeit auf der einen und gleichbleibender Versorgungssicherheit auf der anderen Seite zu lösen, werden Flexibilitätsoptionen benötigt. Im Umfeld dezentraler Versorgungsgebiete lassen sich darunter sowohl verbrauchernahe Erzeuger und Speicher als auch flexible Lasten zusammenfassen. Durch die Heterogenität der Anlagenstruktur und die dynamischen Anforderungen der Versorgungsaufgabe ist es schwierig, allgemeine Aussagen zur Flexibilität des Gesamtsystems zu machen. In dieser Arbeit wird daher eine Methode entwickelt, um die Systemflexibilität räumlich und technisch abgegrenzter Versorgungssysteme zu bewerten. Da die Flexibilitätsoptionen zunächst eine Versorgungsaufgabe erfüllen, besteht die Hauptanforderung der Untersuchung in der Entwicklung eines ganzheitlichen Modells, mit dem Versorgungsgebiete vollständig beschrieben werden können. Als Komponenten des Systems werden Standort, Topologie, Anlage, Gebäude, Haushalt und Endgerät abgegrenzt. Indem für jede dieser Komponenten spezifische Modellbausteine definiert werden, wird ein generischer Baukasten für die Szenariendefinition erstellt. Durch geeignete Methoden wird die zeitlich aufgelöste Last- und Erzeugungssituation für die Endenergieträger Gas, Strom und Wärme abgebildet. Mit dem „aktivitätsbasierten Lastmodell“ wurde dabei ein innovativer Ansatz verfolgt, um fluktuierende elektrische und thermische Lasten in der Größenordnung von 1...200 Gebäuden realitätsnah zu simulieren. Dabei werden die spezifischen Merkmale des Haushaltes und der Endgeräte berücksichtigt. Der Anlagenbetrieb wird durch ein gemischt-ganzzahliges lineares Optimierungsmodell dargestellt, das auf alle Szenarien anwendbar ist. Durch ein Testverfahren wird schließlich das Potenzial eines Systems bewertet, im Bedarfsfall neben der Versorgungsaufgabe als virtuelle Batterie Strom aufzunehmen oder abzugeben. Mittels linearer Optimierung werden dabei spontane Leistungsabrufe getestet, die hinsichtlich Zeitpunkt, Leistung und Abrufdauer variiert werden. Die Ergebnisse dieser Testsequenzen lassen sich zu den Kenngrößen Kapazität und Leistung verdichten. Komplexe, heterogene Versorgungssysteme können mittels einer virtuellen Leistung und Kapazität bewertet und verglichen werden, ohne exogene Parameter einzubeziehen. Dennoch ist diese Bewertung mit Einschränkungen verbunden, denn im Gegensatz zu physikalischen Speichern können die Kenngrößen der virtuellen Batterie nicht deterministisch ermittelt oder fortgeschrieben werden. 397 121 97 Measurement of 𝘾𝙋 violation in the decay 𝘽𝟬 → 𝘿∓𝞹± at the LHCb experiment A measurement of the CP asymmetries Sf and S-f in B0→D^∓ π^± decays is presented in this thesis. The analysed data set was recorded by the LHCb detector in proton-proton collision at centre-of-mass energies of 7 and 8 TeV in the years 2011 and 2012 and corresponds to an integrated luminosity of 3 fb-1. The measured CP asymmetries are Sf =0.058±0.020(stat.)±0.011(syst.), S-f=0.038±0.020(stat.)±0.007(syst.). These results are more precise than and in agreement with previous determinations from the Belle and BaBar collaborations. Using these values, constraints are placed on the CKM angle γ and the CKM quantity sin(2β+γ). The obtained confidence intervals are consistent with the current world-average values. In dieser Arbeit wird eine Messung der CP-Asymmetrien Sf und S-f in B0→D^∓ π^±-Zerfällen präsentiert. Der analysierte Datensatz enthält dabei Ereignisse aus Proton-Proton-Kollisionen bei Schwerpunktsenergien von 7 und 8 TeV, die in den Jahren 2011 und 2012 vom LHCb-Detektor aufgenommen wurden und entspricht einer integrierten Luminosität von 3 fb-1. Die CP-Asymmetrien sind gemessen als Sf=0.058±0.020(stat.)±0.011(syst.), S-f =0.038±0.020(stat.)±0.007(syst.). Diese Ergebnisse sind präziser und in Übereinstimmung mit bisherigen Messungen der Belle- und BaBar-Kollaborationen. Unter Ausnutzung dieser Ergebnisse werden Konfidenzintervalle für den CKM Winkel γ und die CKM Größe sin(2β+γ) bestimmt. Die ermittelten Intervalle stimmen mit den aktuellen Weltmittelwerten überein. 398 149 123 Globalization, growing insecurity and the changeing opportunities of the young generation in modern societies. Selected results from the GLOBALIFE projekt Globalisierung, wachsende Unsicherheit und die Veränderung der Chancen der jungen Generation in modernen Gesellschaften Using a multi-level approach, this contribution studies the effects of globalization on life courses in modern societies and then reports selected results of the GLOBALIFE project. Globalization (which includes the internationalization of markets, accelerated spread of networks and knowledge via new technologies and the increasing dependence on random shocks) has produced a fundamental shift in behavior across the life course as individuals cope with increasing uncertainty about the future. This contribution describes how these transformations are filtered by different domestic institutions and shows that the impact of globalization is experienced differently in various countries and social groups due to nation-based institutional differences. In particular, young people s labour market situation has been deteriorating. Young people react when making pivotal life course decisions such as partnership formation and fertility decisions. Dieser Beitrag konzeptualisiert die Effekte des Globalisierungsprozesses zunächst mit Hilfe eines Mehrebenenmodells und stellt dann ausgewählte Ergebnisse des GLOBALIFE-Projekts dar. Er beschreibt, (1) wie sich die Globalisierung als makrostruktureller Prozess in ausgewählten modernen Ländern seit dem Beginn der siebziger Jahre des letzten Jahrhunderts entwickelt hat, (2) wie die durch Globalisierung erzeugte steigende Unsicherheit auf der Mesoebene durch Institutionen des Bildungs-, Beschäftigungs- und Wohlfahrtsstaatssystems auf bestimmte soziale Gruppen kanalisiert wird und (3) wie die Akteure auf der individuellen Ebene im Alltag in verschiedenen Ländern darauf reagieren. Die Darstellung ausgewählter Ergebnisse konzentriert sich auf die Phase der beruflichen Etablierung und auf die Veränderungen sozialer Ungleichheit bei jungen Erwachsenen in modernen Gesellschaften. 399 139 132 Evolution and Contraction of Infinite Tensor Network States in Two-Dimensional Lattice Geometries The most important mathematical and physical properties of tensor networks in general as well as infinite projected entangled pair states (iPEPS) and 𝑛-simplex states are discussed in arbitrary dimensions. We review numerical methods for obtaining tensor network approximations to the ground state of local Hamiltonians including variational optimization, imaginary time evolution and the simple update scheme, mostly focusing on two-dimensional quantum systems. We demonstrate how infinite tensor networks can be contracted efficiently using infinite time-evolving block decimation (iTEBD) and corner transfer matrices and implement these methods for square and honeycomb iPEPS as well as for 3-simplex states on the Kagome lattice. We investigate the transverse field Ising model, the Heisenberg model, and two bilayered models on different lattices, revealing the generic abilities and limitations of these techniques. In dieser Arbeit werden die wichtigsten mathematischen und physikalischen Eigenschaften von Tensornetzwerken im Allgemeinen sowie von infinite projected entangled pair states (iPEPS) und 𝑛-Simplex Zuständen in beliebigen Dimensionen beleuchtet. Es wird ein Überblick über numerische Methoden zur Grundzustandsapproximation lokaler Hamiltonoperatoren durch Tensornetzwerke gegeben, der variationelle Optimierung, Imaginärzeitentwicklung und das simple update Schema beinhaltet und sich im Wesentlichen auf zweidimensionale Quantensysteme beschränkt. Wir zeigen, wie unendliche Tensornetzwerke effizient kontrahiert werden können unter Verwendung der Methode der infinite time-evolving block decimation sowie mithilfe von Ecktransfermatrizen, und implementieren diese Methoden für iPEPS auf dem Quadrat- und Bienenwabengitter sowie für 3-Simplex-Zustände auf dem Kagome-Gitter. Schließlich werden diese Techniken auf das Ising-Model mit transversalem Feld, das Heisenberg-Modell sowie zwei doppellagige Modelle auf verschiedenen Gittern angewendet. In diesem Zusammenhang diskutieren wir generische Stärken und Schwächen der eingesetzten Algorithmen. 400 390 338 Anwendungsgerechte Gestaltung von RFID-Tags für die Fischereiwirtschaft Due to an increasing pressure of competition and the resulting need for more efficient processes, objects and locations that are exposed to various and partly extreme stress in rough environments are more and more tagged and identified. Rough environments are characterized by medium-related, thermal and mechanical stress in diverse combinations and shapes having either a defined or undefined effect. This publication analyzes the field of robust RFID tags and their use. Furthermore, a catalogue of requirements is developed and casing geometries according to the requirements are investigated by means a concrete application. The use of RFID tags for fishery nets serve a sustainable fishery as especially challenging environment with high mechanical and medium-related stress. Out of technical and economic reasons result conflicts of objectives between the different groups of requirements. For the construction of RFID-Tags, the most important conflict of objectives is the shortage of the common read distances as well as the capture behaviour of transponders by the currently available rough casings. An other point is that available marking and data media are designed following their function, so that process related requirements on the structural shape cannot be taken into account. Building on the catalogue of requirements for the first time a systematic research on Transponders and a selection on casing materials has been done to investigate the relevant interactions. Performance as well as frequency parameters were identified and analyzed with different transponder-material combinations. Besides the mechanical stressing of the casing materials, the effects of aging materials were taken into account too. After analyzing the materials, the effects of different fixing and insertion possibilities of transponders in casings were analysed on their effects on the performance and frequency characteristics. By using the cognitions of the performance and frequency characteristics it was possible to built a hardtag that met the stress requirements, the process requirements as well at the performance requirements and completed the terminal real application successful. Result of the concrete application of the work results is a solution for the unique marking and automated identification of fishery nets with the objective of a persistent certification of nets, a possibility to run an electronic logbook as well as the automated detection of capture effort. Furthermore a basis was established to realize and to successfully apply highly performing and at the same time stressable RFID-Tags for different rough application environments. Um Prozesse aufgrund des wachsenden Wettbewerbsdrucks effizienter zu gestalten, werden zunehmend Objekte und Orte die verschiedenen und teilweise sehr hohen Belastungen in rauen Umgebungen ausgesetzt sind gekennzeichnet und identifiziert. Raue Umgebungen sind dadurch charakterisiert, dass mediale, thermische und mechanische Belastungen in verschiedenen Kombinationen und Ausprägungen definiert oder undefiniert wirken. In dieser Arbeit werden das Feld der robusten RFID-Tags und deren Einsatz analysiert und anhand einer konkreten Anwendung sowohl ein Anforderungskatalog erstellt als auch anforderungsgerechte Gehäusegeometrien ermittelt. Der Einsatz von RFID-Tags an Fischereinetzen dient vor dem Hintergrund einer nachhaltigeren Fischerei als besonders anspruchsvolle Anwendungsumgebung mit hohen mechanischen und medialen Belastungen. Zwischen den einzelnen Anforderungsgruppen ergeben sich aufgrund technischer und wirtschaftlicher Gründe Zielkonflikte. Als wesentlicher Zielkonflikt bei der Gestaltung von Tags besteht die Beschränkung der üblichen Lesereichweiten sowie das Erfassungsverhalten von Transpondern durch die heute verfügbaren robusten Gehäuse. Außerdem sind standardmäßig verfügbare Kennzeichnungs- und Datenträger auf ihre Funktion hin gestaltet, sodass z.B. prozessbezogene Anforderungen an die Bauform nicht berücksichtigt werden können. Aufbauend auf dem Anforderungskatalog wurden erstmalig systematische Untersuchungen von Transpondern und einer Auswahl von Gehäusematerialien zur Ermittlung von relevanten Wirkzusammenhängen durchgeführt. Dabei wurden sowohl Leistungs- als auch Frequenz-parameter der Transponder bei verschiedenen Transponder-Material-Kombinationen ermittelt und analysiert. Neben der Berücksichtigung der mechanischen Belastbarkeit der Gehäuse-materialien wurden auch die Auswirkungen von Alterungserscheinungen der Materialien auf das Verhalten der Transponder untersucht. Anschließend wurden die Auswirkungen unterschiedlicher Fixierungs- und Einbringungsmöglichkeiten von Transpondern in Gehäuse auf ihre Auswirkungen auf das Frequenz- und Leistungsverhalten der Transponder überprüft. Unter Verwendung der Analyseergebnisse über das Frequenz- und Leistungsverhalten der Transponder wurde es möglich, einen Hardtag zu konstruieren, der den Belas-tungsanforderungen, den Prozessanforderungen sowie den Leistungsanforderungen gerecht wird und den anschließenden Praxiseinsatz erfolgreich absolvierte. Ergebnis der konkreten Anwendung der Arbeitsresultate ist eine Lösung zur eindeutigen Kennzeichnung und automatischen Identifikation von Fischereinetzen mit dem Ziel einer durchgehenden Zertifizierung der Netze, einer Möglichkeit zur Führung eines elektronischen Logbuches sowie der automatischen Fangaufwanderfassung. Darüber hinaus wurden die Grundlagen geschaffen höchst leistungsfähige und gleichzeitig belastbare Tags für verschiedenste robuste Anwendungsumgebungen zu realisieren und erfolgreich einzusetzen. 401 251 227 Measurement of the double differential dijet rate in deep inelastic scattering at HERA and comparison to NLO QCD calculations Dijet event rates, R 2 , have been measured for deep inelastic ep scattering using data collected with the H1 detector in the years 1996­1997 corresponding to an integrated luminosity of 22 pb -1 . R 2 is shown as a function of chi B and Q 2 in the kinematic region 10 -4 < chi B <10 -2 and 5 < Q 2 < 100 GeV 2. The thesis discusses in great detail the steps necessary to determine R 2 and the result provides the fully corrected dijet rate. The data are confronted with next­to­leading order QCD calculations using two different choices of the renormalization scale my r 2 and assuming a point­like structure of the virtual photon. While for my r 2 = Q 2 the NLO predictions match the measured dijet rate within the rather large scale uncertainties, the choice my r 2 = Q 2 +E t 2 leads to a substantially lower but theoretically more reliable prediction demanding the inclusion of higher order processes. Therefore the data are compared to NLO QCD calculations which include a resolved structure of the virtual photon. In addition, the dependence of the measured dijet rates on the transverse energy requirement for the jets is studied in bins of chi B and Q 2 providing a highly differential measurement of R 2 for comparison to current fixed order and future resummed calculations. Die Arbeit präsentiert die Messung der Zwei­Jet Rate, R 2 , in tiefinelastischer Streuung bei HERA. Es werden Daten analysiert, die mit dem H1­Detektor in den Jahren 1996/97 aufgezeichnet worden sind und die einer intergrierten Luminosität von 22 pb -1 entsprechen. R 2 wird präsentiert als eine Funktion von chi B und Q 2 im kinematischen Bereich 10 -4 573 K) ausgelesen werden. Dies eröffnet die Möglichkeit, Zusatz-Informationen über die Bestrahlung wie z.B. den Teilchentyp zu erhalten. Nachdem eine Auswertevorschrift festgelegt worden ist, wird das Neutronendosimeter in verschiedenen Photonen- und Neutronenstrahlungsfeldern sowie Arbeitsplatzfeldern charakterisiert. Des Weiteren wird eine Analyse vorgestellt, die das induzierte Signal nach einer Mischfeld- Bestrahlung wie z.B. Alpha+Photonen- oder Neutronen+Photonen-Feldern separiert. Durch das Auswerten der "high temperature peaks" wird die Trennung mittels eines Detektors möglich. Zum Schluss wird die aktuelle Vorgehensweise der starken Energieabhängigkeitvon Neutronen Dosimetern diskutiert und neue Lösungsansätze werden vorgestellt. 462 145 129 Erweiterte Gutzwiller-Wellenfunktionen zur Bestimmung von Streifenstrukturen am eindimensionalen Hubbard-Modell In the present work we study inhomogenous charge and spin distributions, so called stripes, as groundstate properties of doped one band Hubbard models. There is experimental evidence for stripes in doped cuprate-superconductors. Thereby, the Hubbard model is investigated by using Gutzwiller-type wave functions. In order to allow for inhomogenous charge and spin distributions, the original Gutzwiller Ansatz has been extended by two atomic fields per sites which are treated as further variational parameters. To avoid numerical problems as seen in two dimensional supercell calculations, we have performed calculations with one dimensional supercells. Systems with only nearest neighbour hopping show stripes with a characteristic periodicity n=1/d for a given doping level 0