Universitätspublikationen
Refine
Year of publication
- 2021 (2930)
- 2020 (2517)
- 2019 (2331)
- 2018 (2121)
- 2022 (2034)
- 2017 (1982)
- 2016 (1754)
- 2015 (1739)
- 2014 (1708)
- 2023 (1627)
- 2013 (1549)
- 2012 (1496)
- 2010 (1359)
- 2011 (1234)
- 2009 (610)
- 2024 (583)
- 2008 (438)
- 2007 (266)
- 2004 (245)
- 2003 (241)
- 2005 (221)
- 2006 (216)
- 2002 (152)
- 2001 (117)
- 1998 (94)
- 1999 (81)
- 2000 (78)
- 1994 (66)
- 1991 (65)
- 1996 (59)
- 1993 (58)
- 1988 (56)
- 1997 (55)
- 1995 (52)
- 1990 (49)
- 1992 (48)
- 1987 (46)
- 1989 (43)
- 1969 (42)
- 1976 (42)
- 1986 (42)
- 1978 (41)
- 1913 (40)
- 1981 (39)
- 1972 (38)
- 1971 (37)
- 1975 (37)
- 1977 (37)
- 1982 (37)
- 1984 (37)
- 1985 (35)
- 1974 (34)
- 1983 (33)
- 1968 (31)
- 1973 (30)
- 1970 (27)
- 1966 (25)
- 1967 (24)
- 1962 (21)
- 1953 (19)
- 1947 (18)
- 1954 (18)
- 1957 (18)
- 1965 (18)
- 1952 (16)
- 1956 (16)
- 1980 (16)
- 1963 (14)
- 1964 (14)
- 1955 (13)
- 1960 (13)
- 1923 (12)
- 1979 (12)
- 1921 (11)
- 1925 (11)
- 1959 (10)
- 1926 (9)
- 1950 (9)
- 1924 (8)
- 1928 (8)
- 1958 (8)
- 1961 (8)
- 1904 (7)
- 1907 (7)
- 1915 (7)
- 1916 (7)
- 1927 (7)
- 1908 (6)
- 1911 (6)
- 1922 (6)
- 1930 (6)
- 1939 (6)
- 1949 (6)
- 1951 (6)
- 1885 (5)
- 1897 (5)
- 1901 (5)
- 1903 (5)
- 1912 (5)
- 1914 (5)
- 1918 (5)
- 1919 (5)
- 1933 (5)
- 1934 (5)
- 1936 (5)
- 1896 (4)
- 1910 (4)
- 1920 (4)
- 1929 (4)
- 1938 (4)
- 1942 (4)
- 1948 (4)
- 1898 (3)
- 1906 (3)
- 1931 (3)
- 1935 (3)
- 1763 (2)
- 1894 (2)
- 1899 (2)
- 1902 (2)
- 1905 (2)
- 1909 (2)
- 1917 (2)
- 1932 (2)
- 1937 (2)
- 1943 (2)
- 1946 (2)
- 1657 (1)
- 1662 (1)
- 1762 (1)
- 1862 (1)
- 1880 (1)
- 1881 (1)
- 1883 (1)
- 1889 (1)
- 1890 (1)
- 1892 (1)
- 1940 (1)
- 1941 (1)
Document Type
- Article (13523)
- Part of Periodical (3472)
- Doctoral Thesis (3304)
- Contribution to a Periodical (2163)
- Book (2063)
- Working Paper (1886)
- Preprint (1572)
- Review (1063)
- Report (909)
- Conference Proceeding (693)
Language
- English (17101)
- German (13875)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (59)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (95)
- inflammation (93)
- Financial Institutions (90)
- ECB (67)
- Capital Markets Union (65)
- SARS-CoV-2 (63)
- Financial Markets (61)
- Adorno (58)
- Banking Union (50)
Institute
- Medizin (6589)
- Präsidium (5087)
- Physik (3413)
- Wirtschaftswissenschaften (2286)
- Gesellschaftswissenschaften (2016)
- Biowissenschaften (1753)
- Frankfurt Institute for Advanced Studies (FIAS) (1581)
- Biochemie und Chemie (1397)
- Sustainable Architecture for Finance in Europe (SAFE) (1391)
- Informatik (1380)
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Large amplitude intramolecular motions in non-rigid molecules are a fundamental issue in chemistry and biology. The conventional approaches for study these motions by far-infrared and microwave spectroscopy are not applicable when the molecule is non-polar. Therefore, in the current thesis an alternative approach for the investigation of large amplitude intramolecular motions was developed and tested. This new method is based on femtosecond rotational degenerate four-wave mixing spectroscopy (fs DFWM), which is a particular implementation of rotational coherence spectroscopy. The method was successfully applied for the investigation of pseudorotation in pyrrolidine and the ring-puckering vibration in cyclopentene. Another important subject is the photophysics of molecules and molecular clusters which have an ultrashort lifetime of their electronically excited state (photoreactivity). These ultrashort lifetimes often represent a protective mechanism causing photostability. The photoreactivity is usually the manifestation either of an “elementary” reaction, such as proton or electron transfer, which occurs in the excited state or of a fast non-radiative deactivation processes, such as internal conversion via conical intersection of the electronically excited and ground state. Due to a short-lived excited state, the conventional vibrational spectroscopic methods, such as IR depletion detected by resonance two-photon ionization spectroscopy (IR/R2PI), are not applicable for the structural investigation of these systems. Therefore, new approach, termed IR depletion detected by multiphoton ionization with femtosecond laser pulses (IR/fsMPI), was developed for studying the structure of photoreactive microsolvated molecules. The IR/fsMPI technique was applied for investigating the clusters of 1H-pyrrolo[3,2-h]quinoline with water/methanol as well as adenine- and 9-methyl-adenine-hydrates. In addition, the excited state dynamics of bifunctional azaaromatic molecule 7-(2'-pyridyl)indole (7PyIn) was studied by femtosecond pump-probe resonance excitation multiphoton ionization technique (fs REMPI). Under electronic excitation of this molecule a fast proton transfer (phototautomerization) takes place, which is followed by radiationless excited state deactivation process. The fs REMPI spectra lead to the conclusion that the phototautomerization in 7PyIn is coupled with a twisting of the molecule, and that the twisting provides an efficient channel for ultrafast radiationless excited state deactivation. This pattern of excited-state tautomerization/deactivation might be quite general.
Der G-Protein-gekoppelte Histamin-H3-Rezeptor (H3R) ist einer von vier bekannten Histamin-Rezeptorsubtypen. Die Verbreitung erstreckt sich hauptsächlich auf das ZNS, wo der Rezeptor maßgeblich an der Regulation des Schlaf-Wach-Rhythmus, der Kognition, der Aufmerksamkeit und dem Ernährungsverhalten beteiligt ist. Als Autorezeptor reguliert er die Darstellung und Freisetzung von Histamin im Gehirn und moduliert darüberhinaus als Heterorezeptor auch die Konzentration anderer wichtiger Neurotransmitter. Ein Ansatz für die Entwicklung neuer Arzneistoffe bei multifaktoriellen Erkrankungen entspringt der Hybridtheorie. In dieser Arbeit wurde der Hybridansatz durch verschiedene Varianten realisiert, bei denen die jeweiligen Pharmakophore durch Überlappung oder Aneinanderkopplung verknüpft wurden. Als Grundstruktur für das H3-Pharmakophor diente das 4-(3-Piperidin-1-ylpropoxy)-phenyl-Element, als andersartige Pharmakophore dienten neben Arzneistoffen aus der Gruppe der Neuroleptika, Antidepressiva und SSRI auch solche Pharmakophore, die das Wirkprofil von H3R-Liganden durch spezifische Eigenschaften (z. B. neuroprotektiv) ergänzen können. Bei der Kopplung der Pharmakophore lag der Fokus auf der Untersuchung von Aminvariationen. Mit Hilfe des Hybridansatzes wurden in dieser Arbeit zahlreiche neue und potente Histamin-H3-Hybridliganden entwickelt. Es wurden hohe Bindungsaffinitäten im nano- bis subnanomolare Bereich erzielt und wichtige Struktur-Wirkungsbeziehungen abgeleitet. In-vitro zeigte sich eine hohe Toleranz des H3R bezüglich der heterogenen Liganden, darunter solche mit sterisch anspruchsvollen, stark basischen und sauren Gruppen.
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Die lutherische Reformation war nicht nur eine Reformation von Glauben und Leben, sondern auch eine solche von Tod und Sterben. Mit den Predigten Luthers bei den Begräbnisfeierlichkeiten für die sächsischen Kurfürsten Friedrich den Weisen (1525) und Johann den Beständigen (1532), der Predigt bei Luthers eigenem Begräbnis (1546) und den jeweils begleitenden biographischen orationes Philipp Melanchthons formte sich eine neue Gattung der Totenmemoria aus, die von den Wittenberger Theologiestudenten an ihre späteren Wirkungsorte getragen wurde. Sie selbst waren es dann, in ihrer Funktion als Prediger, die das neue Medium der Leichenpredigt zu ihrer eigenen Verortung in der frühneuzeitlichen Gesellschaft nutzten, indem sie die Gruppe der evangelischen Geistlichen, in der Gestalt des jeweils Verstorbenen, als nachahmenswertes Vorbild christlicher Tugend priesen und ihre Rolle für den gesellschaftlichen Zusammenhalt herausstellten. Das so gezeichnete Bild bringt nicht nur das Amtsverständnis zum Ausdruck, sondern wirft auch Licht auf die jeweiligen Zeitumstände, den Bildungsweg der Verstorbenen, ihre Berufung als Prediger, Heiratsstrategien, Kinder und deren Entwicklung, Zuständigkeitsverteilungen im Amt, gesundheitliche und andere Beschwerden, ihren seelsorgerlichen Einsatz, ihre konfessionelle Ausrichtung und schließlich das ritualisierte Sterben. Somit sind gedruckte Leichenpredigten eine vielseitig auswertbare Quelle zur frühneuzeitlichen Alltagskultur, insbesondere hinsichtlich der Bevölkerungsgruppe, die uns sowohl als deren Autoren, wie als Verstorbene gegenübertritt. Die lutherische Reichsstadt Frankfurt am Main, deren Geistliche sich zur gemeinsamen Beratung in einem „Predigerministerium“ zusammenfanden, bietet hier ein besonders lohnendes Untersuchungsfeld. Die gute Überlieferungslage, die Bedeutung Frankfurts im Alten Reich, wie auch das, gerade am Beginn der Reformationsepoche, spannungsreiche Miteinander von Rat und Predigern ermöglichen es, an ausgewählten Beispielen die Etablierung, das Selbstverständnis und die wechselnden theologischen Herausforderungen der mit der Reformation entstandenen neuen Sozialgruppe der evangelischen Geistlichkeit im Wandel dreier Jahrhunderte zu verfolgen.
The dynamics of many systems are described by ordinary differential equations (ODE). Solving ODEs with standard methods (i.e. numerical integration) needs a high amount of computing time but only a small amount of storage memory. For some applications, e.g. short time weather forecast or real time robot control, long computation times are prohibitive. Is there a method which uses less computing time (but has drawbacks in other aspects, e.g. memory), so that the computation of ODEs gets faster? We will try to discuss this question for the assumption that the alternative computation method is a neural network which was trained on ODE dynamics and compare both methods using the same approximation error. This comparison is done with two different errors. First, we use the standard error that measures the difference between the approximation and the solution of the ODE which is hard to characterize. But in many cases, as for physics engines used in computer games, the shape of the approximation curve is important and not the exact values of the approximation. Therefore, we introduce a subjective error based on the Total Least Square Error (TLSE) which gives more consistent results. For the final performance comparison, we calculate the optimal resource usage for the neural network and evaluate it depending on the resolution of the interpolation points and the inter-point distance. Our conclusion gives a method to evaluate where neural nets are advantageous over numerical ODE integration and where this is not the case. Index Terms—ODE, neural nets, Euler method, approximation complexity, storage optimization.
Since the description of sepsis by Schottmüller in 1914, the amount on knowledge available on sepsis and its underlying pathophysiology has substantially increased. Epidemiologic examinations of abdominal septic shock patients show the potential for high risk posed by and the extensive therapy situation in the intensive care unit (ICU) (5). Unfortunately, until now it has not been possible to significantly reduce the mortality rate of septic shock, which is as high as 50-60% worldwide, although PROWESS' results (1) are encouraging. This paper summarizes the main results of the MEDAN project and their medical impacts. Several aspects are already published, see the references. The heterogeneity of patient groups and the variations in therapy strategies is seen as one of the main problems for sepsis trials. In the MEDAN multi-center study of 71 intensive care units in Germany, a group of 382 patients made up exclusively of abdominal septic shock patients who met the consensus criteria for septic shock (3) was analysed. For use within scores or stand-alone experiments variables are often studied as isolated variables, not as a multidimensional whole, e.g. a recent study takes a look at the role thrombocytes play (15). To avoid this limitation, our study compares several established scores (SOFA, APACHE II, SAPS II, MODS) by a multi-dimensional neuronal network analysis. For outcome prediction the data of 382 patients was analysed by using most of the commonly documented vital parameters and doses of medicine (metric variables). Data was collected in German hospitals from 1998 to 2001. The 382 handwritten patient records were transferred to an electronic database giving the amount of 2.5 million data entries. The metric data contained in the database is composed of daily measurements and doses of medicine. We used range and plausibility checks to allow no faulty data in the electronic database. 187 of the 382 patients are deceased (49 %).
At present, there are no quantitative, objective methods for diagnosing the Parkinson disease. Existing methods of quantitative analysis by myograms suffer by inaccuracy and patient strain; electronic tablet analysis is limited to the visible drawing, not including the writing forces and hand movements. In our paper we show how handwriting analysis can be obtained by a new electronic pen and new features of the recorded signals. This gives good results for diagnostics. Keywords: Parkinson diagnosis, electronic pen, automatic handwriting analysis
Attraction and commercial success of web sites depend heavily on the additional values visitors may find. Here, individual, automatically obtained and maintained user profiles are the key for user satisfaction. This contribution shows for the example of a cooking information site how user profiles might be obtained using category information provided by cooking recipes. It is shown that metrical distance functions and standard clustering procedures lead to erroneous results. Instead, we propose a new mutual information based clustering approach and outline its implications for the example of user profiling.
The Internet as the biggest human library ever assembled keeps on growing. Although all kinds of information carriers (e.g. audio/video/hybrid file formats) are available, text based documents dominate. It is estimated that about 80% of all information worldwide stored electronically exists in (or can be converted into) text form. More and more, all kinds of documents are generated by means of a text processing system and are therefore available electronically. Nowadays, many printed journals are also published online and may even discontinue to appear in print form tomorrow. This development has many convincing advantages: the documents are both available faster (cf. prepress services) and cheaper, they can be searched more easily, the physical storage only needs a fraction of the space previously necessary and the medium will not age. For most people, fast and easy access is the most interesting feature of the new age; computer-aided search for specific documents or Web pages becomes the basic tool for information-oriented work. But this tool has problems. The current keyword based search machines available on the Internet are not really appropriate for such a task; either there are (way) too many documents matching the specified keywords are presented or none at all. The problem lies in the fact that it is often very difficult to choose appropriate terms describing the desired topic in the first place. This contribution discusses the current state-of-the-art techniques in content-based searching (along with common visualization/browsing approaches) and proposes a particular adaptive solution for intuitive Internet document navigation, which not only enables the user to provide full texts instead of manually selected keywords (if available), but also allows him/her to explore the whole database.
Data driven automatic model selection and parameter adaptation – a case study for septic shock
(2004)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated.
In bioinformatics, biochemical signal pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically obtaining the most appropriate model and learning its parameters is extremely interesting. One of the most often used approaches for model selection is to choose the least complex model which “fits the needs”. For noisy measurements, the model which has the smallest mean squared error of the observed data results in a model which fits too accurately to the data – it is overfitting. Such a model will perform good on the training data, but worse on unknown data. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated. Keywords: biochemical pathways, differential equations, septic shock, parameter estimation, overfitting, minimum description length.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Proceedings of the 15th IEEE International Conference on Tools with Artificial Intelligence - ICTAI 2003
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
In contrast to the symbolic approach, neural networks seldom are designed to explain what they have learned. This is a major obstacle for its use in everyday life. With the appearance of neuro-fuzzy systems which use vague, human-like categories the situation has changed. Based on the well-known mechanisms of learning for RBF networks, a special neuro-fuzzy interface is proposed in this paper. It is especially useful in medical applications, using the notation and habits of physicians and other medically trained people. As an example, a liver disease diagnosis system is presented.
The prevention of credit card fraud is an important application for prediction techniques. One major obstacle for using neural network training techniques is the high necessary diagnostic quality: Since only one financial transaction of a thousand is invalid no prediction success less than 99.9% is acceptable. Due to these credit card transaction proportions complete new concepts had to be developed and tested on real credit card data. This paper shows how advanced data mining techniques and neural network algorithm can be combined successfully to obtain a high fraud coverage combined with a low false alarm rate.
This paper describes the use of a Radial Basis Function (RBF) neural network in the approximation of process parameters for the extrusion of a rubber profile in tyre production. After introducing the rubber industry problem, the RBF network model and the RBF net learning algorithm are developed, which uses a growing number of RBF units to compensate the approximation error up to the desired error limit. Its performance is shown for simple analytic examples. Then the paper describes the modelling of the industrial problem. Simulations show good results, even when using only a few training samples. The paper is concluded by a discussion of possible systematic error influences, improvements and potential generalisation benefits. Keywords: Adaptive process control; Parameter estimation; RBF-nets; Rubber extrusion
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
This paper describes the problems and an adaptive solution for process control in rubber industry. We show that the human and economical benefits of an adaptive solution for the approximation of process parameters are very attractive. The modeling of the industrial problem is done by the means of artificial neural networks. For the example of the extrusion of a rubber profile in tire production our method shows good results even using only a few training samples.
In this paper we regard first the situation where parallel channels are disturbed by noise. With the goal of maximal information conservation we deduce the conditions for a transform which "immunizes" the channels against noise influence before the signals are used in later operations. It shows up that the signals have to be decorrelated and normalized by the filter which corresponds for the case of one channel to the classical result of Shannon. Additional simulations for image encoding and decoding show that this constitutes an efficient approach for noise suppression. Furthermore, by a corresponding objective function we deduce the stochastic and deterministic learning rules for a neural network that implements the data orthonormalization. In comparison with other already existing normalization networks our network shows approximately the same in the stochastic case but, by its generic deduction ensures the convergence and enables the use as independent building block in other contexts, e.g. whitening for independent component analysis. Keywords: information conservation, whitening filter, data orthonormalization network, image encoding, noise suppression.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
This paper describes the use of a radial basis function (RBF) neural network. It approximates the process parameters for the extrusion of a rubber profile used in tyre production. After introducing the problem, we describe the RBF net algorithm and the modeling of the industrial problem. The algorithm shows good results even using only a few training samples. It turns out that the „curse of dimensions“ plays an important role in the model. The paper concludes by a discussion of possible systematic error influences and improvements.
The paper focuses on the division of the sensor field into subsets of sensor events and proposes the linear transformation with the smallest achievable error for reproduction: the transform coding approach using the principal component analysis (PCA). For the implementation of the PCA, this paper introduces a new symmetrical, lateral inhibited neural network model, proposes an objective function for it and deduces the corresponding learning rules. The necessary conditions for the learning rate and the inhibition parameter for balancing the crosscorrelations vs. the autocorrelations are computed. The simulation reveals that an increasing inhibition can speed up the convergence process in the beginning slightly. In the remaining paper, the application of the network in picture encoding is discussed. Here, the use of non-completely connected networks for the self-organized formation of templates in cellular neural networks is shown. It turns out that the self-organizing Kohonen map is just the non-linear, first order approximation of a general self-organizing scheme. Hereby, the classical transform picture coding is changed to a parallel, local model of linear transformation by locally changing sets of self-organized eigenvector projections with overlapping input receptive fields. This approach favors an effective, cheap implementation of sensor encoding directly on the sensor chip. Keywords: Transform coding, Principal component analysis, Lateral inhibited network, Cellular neural network, Kohonen map, Self-organized eigenvector jets.
After a short introduction into traditional image transform coding, multirate systems and multiscale signal coding the paper focuses on the subject of image encoding by a neural network. Taking also noise into account a network model is proposed which not only learns the optimal localized basis functions for the transform but also learns to implement a whitening filter by multi-resolution encoding. A simulation showing the multi-resolution capabilitys concludes the contribution.
We present a framework for the self-organized formation of high level learning by a statistical preprocessing of features. The paper focuses first on the formation of the features in the context of layers of feature processing units as a kind of resource-restricted associative multiresolution learning We clame that such an architecture must reach maturity by basic statistical proportions, optimizing the information processing capabilities of each layer. The final symbolic output is learned by pure association of features of different levels and kind of sensorial input. Finally, we also show that common error-correction learning for motor skills can be accomplished also by non-specific associative learning. Keywords: feedforward network layers, maximal information gain, restricted Hebbian learning, cellular neural nets, evolutionary associative learning
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
It is well known that artificial neural nets can be used as approximators of any continuous functions to any desired degree and therefore be used e.g. in high - speed, real-time process control. Nevertheless, for a given application and a given network architecture the non-trivial task remains to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation which are critical issues in VLSI and computer implementations of nontrivial tasks. In this paper the accuracy of the weights and the number of neurons are seen as general system parameters which determine the maximal approximation error by the absolute amount and the relative distribution of information contained in the network. We define as the error-bounded network descriptional complexity the minimal number of bits for a class of approximation networks which show a certain approximation error and achieve the conditions for this goal by the new principle of optimal information distribution. For two examples, a simple linear approximation of a non-linear, quadratic function and a non-linear approximation of the inverse kinematic transformation used in robot manipulator control, the principle of optimal information distribution gives the the optimal number of neurons and the resolutions of the variables, i.e. the minimal amount of storage for the neural net. Keywords: Kolmogorov complexity, e-Entropy, rate-distortion theory, approximation networks, information distribution, weight resolutions, Kohonen mapping, robot control.