Refine
Year of publication
Document Type
- Article (30494)
- Part of Periodical (11472)
- Book (8226)
- Doctoral Thesis (5585)
- Part of a Book (3869)
- Working Paper (3368)
- Review (2921)
- Contribution to a Periodical (2277)
- Preprint (1809)
- Report (1561)
Language
- German (42235)
- English (28287)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (253)
- Italian (196)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (74148) (remove)
Keywords
- Deutsch (1076)
- Literatur (857)
- taxonomy (737)
- Deutschland (551)
- Rezension (511)
- new species (438)
- Rezeption (349)
- Frankfurt <Main> / Universität (341)
- Übersetzung (311)
- Geschichte (299)
Institute
- Medizin (7349)
- Präsidium (5062)
- Physik (4110)
- Extern (2738)
- Wirtschaftswissenschaften (2642)
- Gesellschaftswissenschaften (2362)
- Biowissenschaften (2109)
- Biochemie und Chemie (1949)
- Center for Financial Studies (CFS) (1606)
- Informatik (1576)
Poster Presentation from Nineteenth Annual Computational Neuroscience Meeting: CNS*2010 San Antonio, TX, USA. 24-30 July 2010 Statistical models of neural activity are at the core of the field of modern computational neuroscience. The activity of single neurons has been modeled to successfully explain dependencies of neural dynamics to its own spiking history, to external stimuli or other covariates [1]. Recently, there has been a growing interest in modeling spiking activity of a population of simultaneously recorded neurons to study the effects of correlations and functional connectivity on neural information processing (existing models include generalized linear models [2,3] or maximum-entropy approaches [4]). For point-process-based models of single neurons, the time-rescaling theorem has proven to be a useful toolbox to assess goodness-of-fit. In its univariate form, the time-rescaling theorem states that if the conditional intensity function of a point process is known, then its inter-spike intervals can be transformed or “rescaled” so that they are independent and exponentially distributed [5]. However, the theorem in its original form lacks sensitivity to detect even strong dependencies between neurons. Here, we present how the theorem can be extended to be applied to neural population models and we provide a step-by-step procedure to perform the statistical tests. We then apply both the univariate and multivariate tests to simplified toy models, but also to more complicated many-neuron models and to neuronal populations recorded in V1 of awake monkey during natural scenes stimulation. We demonstrate that important features of the population activity can only be detected using the multivariate extension of the test. ...
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.
Poster presentation at 5th German Conference on Cheminformatics: 23. CIC-Workshop Goslar, Germany. 8-10 November 2009 We demonstrate the theoretical and practical application of modern kernel-based machine learning methods to ligand-based virtual screening by successful prospective screening for novel agonists of the peroxisome proliferator-activated receptor gamma (PPARgamma) [1]. PPARgamma is a nuclear receptor involved in lipid and glucose metabolism, and related to type-2 diabetes and dyslipidemia. Applied methods included a graph kernel designed for molecular similarity analysis [2], kernel principle component analysis [3], multiple kernel learning [4], and, Gaussian process regression [5]. In the machine learning approach to ligand-based virtual screening, one uses the similarity principle [6] to identify potentially active compounds based on their similarity to known reference ligands. Kernel-based machine learning [7] uses the "kernel trick", a systematic approach to the derivation of non-linear versions of linear algorithms like separating hyperplanes and regression. Prerequisites for kernel learning are similarity measures with the mathematical property of positive semidefiniteness (kernels). The iterative similarity optimal assignment graph kernel (ISOAK) [2] is defined directly on the annotated structure graph, and was designed specifically for the comparison of small molecules. In our virtual screening study, its use improved results, e.g., in principle component analysis-based visualization and Gaussian process regression. Following a thorough retrospective validation using a data set of 176 published PPARgamma agonists [8], we screened a vendor library for novel agonists. Subsequent testing of 15 compounds in a cell-based transactivation assay [9] yielded four active compounds. The most interesting hit, a natural product derivative with cyclobutane scaffold, is a full selective PPARgamma agonist (EC50 = 10 ± 0.2 microM, inactive on PPARalpha and PPARbeta/delta at 10 microM). We demonstrate how the interplay of several modern kernel-based machine learning approaches can successfully improve ligand-based virtual screening results.
This work investigated the applicability of global pairwise sequence alignment to the detection of functional analogues in virtual screening. This variant of sequence comparison was developed for the identification of homologue proteins based on amino acid or nucleotide sequences. Because of the significant differences between biopolymers and small molecules several aspects of this approach for sequence comparison had to be adapted. All proposed concepts were implemented as the ‘Pharmacophore Alignment Search Tool’ (PhAST) and evaluated in retrospective experiments on the COBRA dataset in version 6.1. The aim to identify functional analogues raised the necessity for identification and classification of functional properties in molecular structures. This was realized by fragment-based atom-typing, where one out of nine functional properties was assigned to each non-hydrogen atom in a structure. These properties were pre-assigned to atoms in the fragments. Whenever a fragment matched a substructure in a molecule, the assigned properties were transferred from fragment atoms to structure atoms. Each functional property was represented by exactly one symbol. Unlike amino acid or nucleotide sequences, small drug-like molecules contain branches and cycles. This was a major obstacle in the application of sequence alignment to virtual screening, since this technique can only be applied to linear sequences of symbols. The best linearization technique was shown to be Minimum Volume Embedding. To the best of knowledge, this work represents the first application of dimensionality reduction to graph linearization. Sequence alignment relies on a scoring system that rates symbol equivalences (matches) and differences (mismatches) based on functional properties that correspond to rated symbols. Existing scoring schemes are applicable only to amino acids and nucleotides. In this work, scoring schemes for functional properties in drug-like molecules were developed based on property frequencies and isofunctionality judged from chemical experience, pairwise sequence alignments, pairwise kernel-based assignments and stochastic optimization. The scoring system based on property frequencies and isofunctionality proved to be the most powerful (measured in enrichment capability). All developed scoring systems performed superior compared to simple scoring approaches that rate matches and mismatches uniformly. The frameworks proposed for score calculations can be used to guide modifications to the atom-typing in promising directions. The scoring system was further modified to allow for emphasis on particular symbols in a sequence. It was proven that the application of weights to symbols that correspond to key interaction points important to receptor-ligand-interaction significantly improves screening capabilities of PhAST. It was demonstrated that the systematic application of weights to all sequence positions in retrospective experiments can be used for pharmacophore elucidation. A scoring system based on structural instead of functional similarity was investigated and found to be suitable for similarity searches in shape-constrained datasets. Three methods for similarity assessment based on alignments were evaluated: Sequence identity, alignment score and significance. PhAST achieved significantly higher enrichment with alignment scores compared to sequence identity. p-values as significance estimates were calculated in a combination of Marcov Chain Monte Carlo Simulation and Importance Sampling. p-values were adapted to library size in a Bonferroni correction, yielding E-values. A significance threshold of an E-value of 1*10-5 was proposed for the application in prospective screenings. PhAST was compared to state-of-the-art methods for virtual screening. The unweighted version was shown to exhibit comparable enrichment capabilities. Compound rankings obtained with PhAST were proven to be complementary to those of other methods. The application to three-dimensional instead of two-dimensional molecular representations resulted in altered compound rankings without increased enrichment. PhAST was employed in two prospective applications. A screening for non-nucleoside analogue inhibitors of bacterial thymidin kinase yielded a hit with a distinct structural framework but only weak activity. The search for drugs not member of the NSAID (non-steroidal anti-inflammatory drug) class as modulators of gamma-secretase resulted in a potent modulator with clear structural distiction from the reference compound. The calculation of significance estimates, emphasizing on key interactions, the pharmacophore elucidation capabilities and the unique compound rannkings set PhAST apart from other screening techniques.
Development of a computational method for reaction-driven de novo design of druglike compounds
(2010)
A new method for computer-based de novo design of drug candidate structures is proposed. DOGS (Design of Genuine Structures) features a ligand-based strategy to suggest new molecular structures. The quality of designed compounds is assessed by a graph kernel method measuring the distance of designed molecules to a known reference ligand. Two graph representations of molecules (molecular graph and reduced graph) are implemented to feature different levels of abstraction from the molecular structure. A fully deterministic construction procedure explicitly designed to facilitate synthesizability of proposed structures is realized: DOGS uses readily available synthesis building blocks and established reaction schemes to assemble new molecules. This approach enables the software to propose not only the final compounds, but also to give suggestions for synthesis routes to generate them at the bench. The set of synthesis schemes comprises about 83 chemical reactions. Special focus was put on ring closure reactions forming drug-like substructures. The library of building blocks consists of about 25,000 readily available synthesis building blocks. DOGS builds up new structures in a stepwise process. Each virtual synthesis step adds a fragment to the growing molecule until a stop criterion (upper threshold for molecular mass or number of synthesis steps) is fulfilled. In a theoretical evaluation, a set of ~1,800 molecules proposed by DOGS is analyzed for critical properties of de novo designed compounds. The software is able to suggest drug-like molecules (79% violate less than two of Lipinski’s ‘rule of five’). In addition, a trained classifier for drug-likeness assigns a score >0.8 to 51% of the designed molecules (with 1.0 being the top score). In addition, most of the DOGS molecules are deemed to be synthesizable by a retro-synthesis descriptor (77% of molecules score in the top 10% of the decriptor’s value range). Calculated logP(o/w) values of constructed molecules resemble a unimodal distribution centred close to the mean of logP(o/w) values calculated for the reference compounds. A structural analysis of selected designs reveals that DOGS is capable of constructing molecules reflecting the overall topological arrangement of pharmacophoric features found in the reference ligands. At the same time, the DOGS designs represent innovative compounds being structurally distinct from the references. Synthesis routes for these examples are short and seem feasible in most cases. Some reaction steps might need modification by using protecting groups to avoid unwanted side reactions. Plausible bioisosters for known privileged fragments addressing the S1 pocket of trypsin were proposed by DOGS in a case study. Three of them can be found in known trypsin inhibitors as S1-adressing side chains. The software was also tested in two prospective case studies to design bioactive compounds. DOGS was applied to design ligands for human gamma-secretase and human histamine receptor subtype 4 (hH4R). Two selected designs for gamma-secretase were readily synthesizable as suggested by the software in one-step reactions. Both compounds represent inverse modulators of the target molecule. In a second case study, a ligand candidate selected for hH4R was synthesized exactly following the three-step synthesis plan suggested by DOGS. This compound showed low activity on the target structure. The concept of DOGS is able to deliver synthesizable and bioactive compounds. Suggested synthesis plans of selected compounds were readily pursuable. DOGS can therefore serve as a valuable idea generator for the design of new pharmacological active compounds.
Understanding causal relationships, or effective connectivity, between parts of the brain is of utmost importance because a large part of the brain’s activity is thought to be internally generated and, hence, quantifying stimulus response relationships alone does not fully describe brain dynamics. Past efforts to determine effective connectivity mostly relied on model based approaches such as Granger causality or dynamic causal modeling. Transfer entropy (TE) is an alternative measure of effective connectivity based on information theory. TE does not require a model of the interaction and is inherently non-linear. We investigated the applicability of TE as a metric in a test for effective connectivity to electrophysiological data based on simulations and magnetoencephalography (MEG) recordings in a simple motor task. In particular, we demonstrate that TE improved the detectability of effective connectivity for non-linear interactions, and for sensor level MEG signals where linear methods are hampered by signal-cross-talk due to volume conduction.
Prognostische Bedeutung von "electrical storm" und seinen verschiedenen Formen bei Patienten mit ICD
(2010)
Ziel: Das Ziel der vorliegenden Arbeit war es, die Unterschiede bezüglich Mortalität, demographischen und klinischen Parametern, zwischen „electrical storm) (ES) und „nicht electrical storm“ (NES) Patienten sowie zwischen den Gruppen mit verschiedenen Formen des ES aufzuzeigen, um Aussagen über die prognostische Bedeutung von ES und dessen verschiedene Formen und den Einfluss der demographischen und klinischen Parameter auf die Entstehung von ES machen zu können. Hintergrund: Es existieren nur ungenügende Daten bezüglich der Entstehung und Prognose von ES bei ICD Patienten. Die prognostische Bedeutung der bei ES auftretenden Herzfrequenzen wurde bislang nur von einer Arbeitsgruppe untersucht und bedarf weiterer Studien. Methoden: In der Studie wurden retrospektiv die Daten von 783 konsekutiven Patienten, denen von Dezember 1989 bis September 2005 in der JWG Universitätsklinik Frankfurt am Main ein ICD implantiert wurde, ausgewertet. Die Nachsorgedauer betrug 40,7 ± 30 Monate. ES wurde als das drei oder mehrmalige Auftreten von anhaltende VTs / VFs innerhalb von 24 h, die mit ATP oder Schock therapiert wurden definiert. In der Studie wurden erstmals ES Patienten mit immer gleichen HF während eines ES mit denen mit unterschiedlichen HF verglichen. Weiterhin wurde die Gruppe der Patienten mit gleichen HF in die Untergruppen HF 100-200/min und > 200/min eingeteilt und ein Vergleich durchgeführt. Ergebnisse: Von den 783 Patienten erlitten 144 (18,39%) während des Beobachtungszeitraumes einen oder mehrere ES. Männliches Geschlecht (p = 0,004), eine sekundäre Indikation zur ICD Implantation (p = 0,000) sowie die fehlende Einnahme von Aldosteron-antagonisten (p = 0,026) zeigten sich in der multivariaten Analyse als unabhängige Faktoren, die die Entstehung von ES begünstigen. Es verstarben höchst signifikant häufiger Patienten der ES Gruppe als Patienten der NES Gruppe (38,88% vs. 21,75%; p = 0,000116). Die Cox Regression zeigte jedoch, dass die Tatsache des Erleidens eines ES keinen unabhängigen Faktor für das Überleben darstellt. Beim Vergleich der Patienten mit unterschiedlichen und gleichen Herzfrequenzen zeigte sich, dass Patienten mit unterschiedlichen Herzfrequenzen häufiger versterben als Patienten mit gleichen Herzfrequenzen (41,18% vs. 27,50%). Die Ergebnisse erlangten jedoch keine Signifikanz. Beim Vergleich der Patienten der unterschiedlichen HF Gruppen zeigte sich, dass signifikant mehr Patienten mit einer HF >200/min eine LVEF unter 30% haben (84,62% vs. 44,44%, p = 0,038310). Es sind mehr Patienten mit einer HF >200/min als mit einer HF von 100-200/min verstorben (38,46% vs. 22,22%), die Ergebnisse erlangten jedoch keine Signifikanz. Schlussfolgerung: ICD Patienten mit ES versterben signifikant häufiger als ICD Patienten, die keinen ES erleiden. ES ist jedoch kein unabhängiger Faktor für das Überleben von ICD Patienten. Zum ersten Mal wurden ES Patienten eingeteilt in verschiedene HF Gruppen verglichen, und es ergaben sich deutliche prozentuale Unterschiede. Um jedoch statistisch signifikante Aussagen über die Auswirkung der verschiedenen HF bei ICD Patienten mit ES machen zu können, bedarf es Studien mit wesentlich höheren Studienpopulationen. Aus den Studienergebnissen des Vergleiches der Baselinedaten lassen sich Risikofaktoren sowie protektive Faktoren, die das Auftreten eines ES beeinflussen, ableiten, wodurch in Zukunft Risikopatienten identifiziert werden und entsprechende Vorsorgemaßnahmen eingeleitet werden können.
Im Rahmen meiner Untersuchung habe ich mich mit den literaturtheoretischen Instrumenten von Dichtung und ihren geistesgeschichtlichen Quellen seit der klassischen Antike beschäftigt. Hier sind vor allem Aritoteles, Platon und deren Rezipienten Hermogenes von Tarsos sowie in der frühen Neuzeit Gerhard Vossius zu nennen. Zentraler Begriff ist hierbei eine Neuentwicklung des Begriffs der Fiktion auf der Grundlage philosophischer Ästhetik und ihrer praktischen Umsetzung in der bildenden Kunst und der Literatur der Aufklärung. ...
The massive amount of genomic sequence data that is now available for analyzing evolutionary relationships among 31 placental mammals reduces the stochastic error in phylogenetic analyses to virtually zero. One would expect that this would make it possible to finally resolve controversial branches in the placental mammalian tree. We analyzed a 2,863,797 nucleotide-long alignment (3,364 genes) from 31 placental mammals for reconstructing their evolution. Most placental mammalian relationships were resolved, and a consensus of their evolution is emerging. However, certain branches remain difficult or virtually impossible to resolve. These branches are characterized by short divergence times in the order of 1-4 million years. Computer simulations based on parameters from the real data show that as little as about 12,500 amino acid sites could be sufficient to confidently resolve short branches as old as about 90 million years ago. Thus, the amount of sequence data should no longer be a limiting factor in resolving the relationships among placental mammals. The timing of the early radiation of placental mammals coincides with a period of climate warming some 100 - 80 million years ago and with continental fragmentation. These global processes may have triggered the rapid diversification of placental mammals. However, the rapid radiations of certain mammalian groups complicate phylogenetic analyses, possibly due to incomplete lineage sorting and introgression. These speciation-related processes led to a mosaic genome and conflicting phylogenetic signals. Split network methods are ideal for visualizing these problematic branches and can therefore depict data conflict and possibly the true evolutionary history better than strictly bifurcating trees. Given the timing of tectonics, of placental mammalian divergences, and the fossil record, a Laurasian rather than Gondwanan origin of placental mammals seems the most parsimonious explanation. Key words: continental drift , Cretaceous warming , genome analysis , hybridization , phylogenomics , split decomposition
In dieser Arbeit wurde erstmals ein monokolonaler Antikörper gegen die GlyRbeta-Untereinheit (GlyRbeta) hergestellt. Zur Immunisierung der Mäuse wurde die 120 AS lange große cytoplasmatische Schleife (engl. loop) zwischen den transmembranen Domänen 3 und 4 von GlyRbeta gewählt, da diese nur geringe Sequenzhomologie zu GlyRalpha-Untereinheiten aufweist. Diese Schleifenregion wurde als GST-Fusionsprotein in Bakterien exprimiert und affinitätsgereinigt. Sowohl die Immunisierung der Mäuse als auch die Herstellung der Hybridoma-Klone wurde in Zusammenarbeit mit Synaptic Systems GmbH (Göttingen) durchgeführt. Die Spezifität der Antikörperbindung an GlyRbeta wurde zunächst in Western Blot-Experimenten mit affinitätsgereinigtem GlyR aus Rattenrückenmark demonstriert. Eine nachfolgende Untersuchung der Antikörperbindestelle führte zur Identifikation der ersten 20 AS des beta-loop (GlyRbeta336-355) als Epitop. Ein 20 AS kurzes, synthetisches Peptid, welches die Epitop-Sequenz enthielt, war ausreichend, um Färbungen von Western Blots und Gewebeschnitten durch den Antikörper effizient zu verhindern. Außerdem wurden Protokolle für die Antikörperfärbung von GlyRbeta in transfizierten Zelllinien und primären Neuronen aus Rattenrückenmark etabliert. Weiterhin ermöglichte die Herstellung dieses Antikörpers erstmals die direkte immunhistochemische Färbung von GlyRbeta-Protein im ZNS von Mäusen. GlyRbeta konnte hierbei im Hirnstamm, Rückenmark, dem Bulbus olfactorius und der Retina von Mäusen nachgewiesen werden, was zeigt, dass GlyRbeta-Protein weit weniger verbreitet ist als aufgrund von in situ Hybridisierungs-Studien vermutet. Die gefundene Verteilung von GlyRbeta-Protein unterscheidet sich demnach stark von der Verteilung der GlyRbeta-mRNA, was für eine posttranskriptionelle Regulation der GlyRbeta-Proteinmenge spricht. Weiterführende immunhistochemische Untersuchungen an der Retina von Mäusen zeigten, dass GlyRbeta in diesem Gewebe wie erwartet mit Gephyrin an inhibitorischen Synapsen kolokalisiert ist. In Bezug auf GlyRalpha-Untereinheiten geht man bislang davon aus, dass sie an Synapsen des adulten ZNS immer mit GlyRbeta assoziiert sind, und somit indirekt mit Gephyrin verbunden werden, wodurch das Clustering der Rezeptoren gewährleistet wird. Entgegen dieser Hypothese wurde in Doppelfärbungen von GlyRbeta und GlyRalpha-Untereinheiten gefunden, dass eine Ansammlung von GlyRalpha4-Clustern in der Retina adulter Mäuse vermutlich eine Ausnahme hierzu bildet. Für GlyRalpha4-Cluster in Stratum 3 und 4 der IPL konnte gezeigt werden, dass sie teilweise nicht mit GlyRbeta, und zu ebenso großem Teil nicht mit Gephyrin kolokalisiert sind. Dennoch scheinen diese GlyRalpha4-Untereinheiten in Clustern angereichert und zudem synaptisch lokalisiert zu sein. Der Mechanismus, durch den GlyRalpha4 in Abwesenheit dieser beiden Proteine an Synapsen immobilisiert wird, ist bislang völlig unklar. Funktionell wäre denkbar, dass derartige Rezeptorkomplexe den synaptischen Eingängen von ON-Starburst-Amakrinzellen besondere Leitungseigenschaften verleihen und somit maßgeblich an der Verarbeitung richtungsselektiver Signale in der Retina beteiligt sein könnten. In dieser Arbeit wurden außerdem Mutagenesestudien durchgeführt, um zu klären, über welchen Mechanismus die Inhibition der Proteinphosphatasen 1 und 2A (PP1 und PP2A) zum Verlust von synaptischem Gephyrin führt. Es konnte gezeigt werden, dass eine direkte Dephosphorylierung von Gephyrin durch PP1 hierfür wahrscheinlich nicht verantwortlich ist, da die Mutation etablierter Phosphorylierungsstellen von Gephyrin keinen, oder nur einen marginalen Einfluss auf dessen synaptische Lokalisation und das Clustering von GABAARs hatte. Dies spricht dafür, dass PP1/PP2A abhängige Dephosphorylierungs-/Phosphorylierungsprozesse wahrscheinlich andere Gephyrin- oder Cytoskelett-assoziierte Proteine beeinflussen, jedoch nicht direkt an Gephyrin wirken. Die Erstellung von genomweiten Expressionsprofilen ist eine effiziente Methode zur Identifikation neuer Regulationsmechanismen und potentieller Interaktionspartner von Genprodukten und wurde in dieser Arbeit auf Vorderhirnproben von WT- und Gephyrin-KO-Mäusen vergleichend angewendet. Hierbei wurde gefunden, dass die Transkription bekannter Gephyrin-Interaktionspartner durch den Verlust des Gephyrin-Gens nicht messbar verändert wird. Weil die ermittelten Unterschiede in Transkriptmengen generell sehr gering waren, ist zu vermuten, dass Gephyrin keine wesentlichen genregulatorischen Funktionen im Mausgehirn ausübt. Andererseits ergab die Expressionchip-Analyse Hinweise auf neue Genprodukte, für die in WT- und Gephyrin-KO-Mäusen signifikant verschiedene Transkriptionsmengen gefunden wurden. Die Validierung dieser Daten mit anderen Methoden steht jedoch noch aus.