Das Gehirn: Ein mächtiges Werkzeug mit Risiken und Nebenwirkungen

Das Gehirn ist zweifellos eines der komplexesten und faszinierendsten Organe des menschlichen Körpers. Es ermöglicht uns zu denken, zu fühlen, zu lernen und uns an unsere Umwelt anzupassen. Doch wie jedes Werkzeug birgt auch das Gehirn bei unsachgemäßer Anwendung Risiken. Wer diese Nebenwirkungen nicht beachtet, kann sich unglücklich machen! Dieses informative und fundierte Sachbuch beschreibt kurzweilig, wie man mit dem richtigen Wissen über die Risiken und Nebenwirkungen des Gehirns gezielt die psychische Gesundheit fördern kann.

Die Dualität des Gehirns: Chancen und Gefahren

Die Fortschritte in der Wissenschaft und Technologie haben uns ein immer tieferes Verständnis der Funktionsweise des Gehirns ermöglicht. Künstliche Intelligenz (KI) ist längst keine Zukunftsvision mehr, sondern bereits mitten unter uns: Ob Einparkhilfe oder Suchmaschine - in vielen Dingen unseres Alltags nutzen wir die Technologie schon ganz selbstverständlich. Und auch in Medizin und Life Sciences kommt sie mehr und mehr zum Einsatz. Was scheinbar neue, unbegrenzte Möglichkeiten verspricht, birgt aber auch Risiken.

Einerseits eröffnen sich dadurch ungeahnte Möglichkeiten in Bereichen wie Medizin, Bildung und Kommunikation. Andererseits müssen wir uns den potenziellen Gefahren bewusst sein, die mit der Nutzung dieser komplexen Maschine einhergehen.

Künstliche Intelligenz: Ein zweischneidiges Schwert

An Künstlicher Intelligenz (KI) wird schon seit mehreren Jahrzehnten geforscht; der Durchbruch mit alltäglichen Anwendungsmöglichkeiten gelang allerdings erst in den letzten Jahren mit der Entwicklung leistungsstarker Computer und den entsprechenden künstlichen neuronalen Netzwerken. Die Technologie ist heute eines der großen Themen der Digitalen Revolution, die derzeit in vielen Ländern der Welt Einfluss auf immer mehr Lebensbereiche gewinnt - auch in Deutschland. Was einerseits Hoffnung macht - vor allem im medizinischen Bereich, birgt andererseits aber auch Risiken. „Mit diesen muss man sich spätestens jetzt zu diesem Zeitpunkt beschäftigen“, sagt Michael Mörike, Vorstand der Integrata-Stiftung für humane Nutzung der Informationstechnologie in Tübingen. „Denn bei der KI haben wir es mit einem Phänomen zu tun, das die Menschheit bisher so noch nie kannte. Zwar tat der Mensch gut daran, auch schon mit früheren bedeutenden Erfindungen wie dem Messer oder der Dampfmaschine ethisch umzugehen. Die Integrata-Stiftung, in der sich Mörike schon seit über zehn Jahren engagiert, wurde 1999 vom Wirtschaftswissenschaftler Prof. Dr. Wolfgang Heilmann gegründet und setzt sich seither dafür ein, die Informationstechnologie und -technik nicht nur zur Automatisierung zu nutzen, sondern vor allem auch zur Verbesserung der Lebensqualität möglichst vieler Menschen.

KI-Systeme können beispielsweise in der Medizin eingesetzt werden, um Diagnosen zu stellen, Behandlungspläne zu erstellen und Operationen durchzuführen. Sie können auch in der Bildung eingesetzt werden, um personalisierte Lernprogramme zu entwickeln und den Fortschritt der Schüler zu verfolgen. Im Bereich der Kommunikation können KI-Systeme eingesetzt werden, um Sprachen zu übersetzen, Texte zu verfassen und Kundenservice zu bieten.

Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben

Allerdings birgt der Einsatz von KI auch Risiken. So können KI-Systeme fehlerhaft sein oder diskriminierende Entscheidungen treffen. Sie können auch missbraucht werden, um Menschen zu manipulieren oder zu überwachen. Es ist daher wichtig, dass wir uns der potenziellen Gefahren von KI bewusst sind und Maßnahmen ergreifen, um diese zu minimieren.

Ethische Überlegungen im Umgang mit KI

Grundidee ist in erster Linie die „soziale“ Anwendung und erst in zweiter Linie eine technische: IT also als Werkzeug, mit dem die Welt humaner gestaltet werden soll. Dazu trägt die Stiftung unter anderem mit der Würdigung beispielhafter Arbeiten bei, die sie jährlich mit dem Wolfgang-Heilmann-Preis oder dem eCare-Preis auszeichnet. Weiterhin hat es sich die Stiftung zur Aufgabe gemacht, die gesellschaftliche Diskussion zum Thema zu fördern. Grundlage ihrer Aktivitäten ist für Mörike und seine Kollegen ein Menschenbild, das den Mensch als Teil eines umfassenden Evolutionsprozesses sieht und nicht als „Krone der Schöpfung“. „Vor diesem Hintergrund kann er zwar durchaus seine Lebensqualität steigern, indem er IT für sich nutzt, dies muss aber vertrauenswürdig geschehen“, erklärt Mörike. „Und das gilt ganz besonders für die neueste Entwicklung, die Künstliche Intelligenz oder richtiger gesagt: für Maschinen, die lernen können - Stichwort: Deep Learning. Das sehen übrigens nicht nur wir so, sondern auch viele andere Experten, wie auch das neueste Paper der EU zeigt, zu dem jeder bis Januar dieses Jahres beitragen konnte, und das bis März in seine endgültige Fassung gebracht werden soll *. Es geht uns darum, die richtige Ethik einzubauen. Denn wenn wir nichts tun, dann wird uns das Ganze mit Sicherheit misslingen.

Die ethischen Herausforderungen im Zusammenhang mit KI sind vielfältig. Eine der wichtigsten Fragen ist, wie wir sicherstellen können, dass KI-Systeme fair und transparent sind. Das bedeutet, dass sie keine diskriminierenden Entscheidungen treffen und dass ihre Funktionsweise für uns nachvollziehbar ist.

Ein weiteres wichtiges Thema ist die Frage der Verantwortung. Wer ist verantwortlich, wenn ein KI-System einen Fehler macht oder Schaden anrichtet? Ist es der Entwickler, der Betreiber oder das System selbst? Diese Frage ist besonders relevant, wenn es um autonome Systeme geht, die ohne menschliches Zutun Entscheidungen treffen.

Darüber hinaus müssen wir uns mit der Frage auseinandersetzen, wie wir verhindern können, dass KI missbraucht wird. KI-Systeme könnten beispielsweise eingesetzt werden, um Propaganda zu verbreiten, Wahlen zu manipulieren oder Menschen zu überwachen. Es ist daher wichtig, dass wir rechtliche und technische Maßnahmen ergreifen, um solche Missbräuche zu verhindern.

Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.

Die Rolle der Digitalen Ethik

Der Begriff "Digitale Ethik" erfasst Fragestellungen, die sich damit auseinandersetzen, wie wir die fortschreitende Digitalisierung zum Wohle der Gesellschaft und ihrer Mitglieder gestalten können und was wir dabei beachten sollten. Sie geht unter anderem auf den Wirtschaftsinformatiker und Philosophen Rafael Capurro zurück. Digitalethische Diskurse beschäftigen sich damit, wie einzelne Personen und Organisationen digitale Medien und Technologien in verschiedenen gesellschaftlichen Kontexten einsetzen, zu welchen Problemen und Konflikten es dabei kommt und wie diese gelöst werden könnten. Das beinhaltet beispielweise folgende Fragen: An welchen Werten orientieren wir uns bei der Gestaltung von Technologien? Welche Chancen birgt eine technisch optimierte Assistenz für unsere Gesellschaft und unter welchen Bedingungen können wir diese nutzen? Wie sorgen wir dafür, dass auch automatisierte Entscheidungssysteme Regeln folgen, die wir an menschliches Handeln ansetzen? Wer übernimmt die Verantwortung für die Entscheidungen solcher Systeme?

Die "Digitale Ethik" hat ihre Wurzeln insbesondere in der Technik-, Informations- und Medienethik. Bereits Mitte des letzten Jahrhunderts beschäftigten sich Wissenschaftlerinnen und Wissenschaftler, die an Informationstechnologien arbeiteten, mit den ethisch-gesellschaftlichen Auswirkungen ihrer Arbeit. Erste tiefergehende Auseinandersetzungen mit dem Thema fanden zudem unter Interner Link: Hackerinnen und Hackern in den 1980er-Jahren statt. Ethische - und damit im Kern philosophische - Fragestellungen sind oft eng mit sozialen, kulturellen, rechtlichen, politischen, ökonomischen und ökologischen Aspekten verknüpft. Denn sind ethisch-gesellschaftliche Ziele einmal gesetzt, stellt sich die Frage, wie sich diese verwirklichen lassen: durch wirtschaftliche Förderung, einen breit angelegten gesellschaftlichen Diskurs, Selbstverpflichtungen oder neue Gesetze. Findet diese Verknüpfung nicht statt, besteht die Gefahr, dass wir ethische Fragen auf einer sehr allgemeinen Ebene diskutieren und gesellschaftliche sowie politische Handlungsspielräume nicht wahrnehmen. Große Digitalunternehmen prägen währenddessen die Ausgestaltung von Technologien. Sie orientieren sich dabei hauptsächlich an wirtschaftlichen Kriterien und weniger an ethischen Fragestellungen, wie etwa die italienische Politikwissenschaftlerin Maria Luisa Stasi am Beispiel erfolgreicher Anbieter sozialer Netzwerke darlegt: Deren automatisierte Moderationspraktiken sind nicht in erster Linie daran orientiert, Vielfalt und Meinungspluralismus zu fördern, sondern eigene wirtschaftliche Einkünfte zu erzielen. Um auch anderen Maßstäben Geltung zu verschaffen, könnte der gesellschaftlich-politische Raum Kriterien vorgeben, die in die Gestaltung der algorithmischen Moderationssysteme einfließen sollten. Diese Kriterien sollten sich etwa am Gemeinwohl und an grundlegenden gesellschaftlichen Werten orientieren, darunter die Bewahrung von Vielfalt in der öffentlichen Debatte. Dafür müsste wiederum ein breit angelegter gesellschaftlicher Diskurs stattfinden, der viele unterschiedliche Meinungen berücksichtige.

Gegenwärtig verstetigt sich der Diskurs zu digitalethischen Fragen auch in der Politik und der Gesellschaft. Es entstehen neue Diskussionsforen und Gremien, die etwa Kodifizierungen der Ethik, ethische Richtlinien oder Kataloge mit Werten, Prinzipien und Gütekriterien erarbeiten. Erste konkrete Definitionen digitalethischer Normen auf weltweiter Ebene entstanden beim "World Summit on the Information Society" 2003 in Genf. Das Ziel dieser an die Vereinten Nationen angegliederten Konferenz ist es, eine Informationsgesellschaft zu schaffen, die gleichsam entwicklungsorientiert und inklusiv ist sowie die allgemeine Erklärung der Menschenrechte in vollem Umfang achtet. In diesem Zusammenhang setzte die Bundesregierung beispielsweise im Sommer 2018 die Datenethikkommission ein. Sie erarbeitete ein Gutachten zu ethischen Leitlinien, die insbesondere bei algorithmischen Systemen und ihrer Regulierung zu beachten sind. Ende 2019 veröffentlichte sie ein umfangreiches Papier, indem sie unter anderem empfiehlt, ethische Kriterien auf europäischer Ebene auszuhandeln und zu etablieren. In den diversen Diskursen und Vorhaben werden immer wieder grundlegende Werte genannt, an denen sich Digitalisierung orientieren soll. Das sind unter anderem Offenheit, Transparenz, Gerechtigkeit, Toleranz, Gleichheit, Sicherheit, Freiheit, Verantwortung und Pluralismus. Diese breit geteilten gesellschaftlichen Werte spielen nicht nur in Bezug auf die Auswirkungen der fortschreitenden Digitalisierung in den verschiedenen Lebensbereichen eine Rolle. Die Herausforderung ist vielmehr, sie auch auf die Technologien selbst anzuwenden - also darauf, wie wir sie konzipieren, gestalten und einsetzen und dabei diese zentralen Werte möglichst umfassend berücksichtigen. Damit setzt sich beispielsweise die US-amerikanische Technologieethikerin Joanna Bryson in Zusammenhang mit Interner Link: Künstlicher Intelligenz auseinander.

Algorithmische Systeme und ihre Auswirkungen auf menschliche Schicksale

"Digitale Ethik" kann Maßstäbe anbieten, nach denen wir technologische Entwicklungen beurteilen. Das lässt sich insbesondere an Technologien veranschaulichen, die gegenwärtig digitalethische Diskussionen verursachen, weil sie zunehmend zum Einsatz kommen und ihre Anwendungsfelder sich voraussichtlich ausweiten. Algorithmische Systeme sind ein solches Beispiel. So analysiert eine spezielle Interner Link: Software im Justizwesen der USA Datenprofile von straffällig Gewordenen und ermittelt einen "Kriminalitätsrisikowert" für diese Personen. Dieser Wert fließt in die Entscheidung von Richterinnen und Richtern ein, wenn sie erwägen, ob ein Häftling vorzeitig auf Bewährung aus der Haft entlassen werden darf oder wie lang die Haftstrafe bei einem Schuldspruch sein soll. Ein weiteres Feld ist das Personalwesen: Algorithmische Systeme filtern hier Bewerbungen für eine bestimmte Stelle vor. Damit bekommt die Personalabteilung die der Software zufolge passenden Kandidatinnen und Kandidaten vorgelegt. In diesen Bereichen geht es nicht nur darum, technologische Prozesse zu optimieren. Vielmehr ist der entscheidende Punkt, dass die Analysen algorithmischer Systeme hier über menschliche Schicksale (mit-)bestimmen. In diesem Zusammenhang stellen sich etwa Fragen in Bezug auf bestehende gesellschaftliche Normen wie die Gleichbehandlung.

Einerseits kann der Einsatz solcher Systeme eine Chance sein, bestehende Formen der Diskriminierung aufzulösen: Sie entscheiden jedes Mal nach den gleichen, vorab bestimmten Kriterien. Demnach unterscheiden sie weder bewusst noch unbewusst zwischen Menschen, etwa aufgrund von Vorurteilen oder situativen Einflussfaktoren wie der Stimmungslage. Andererseits sind auch algorithmische Systeme nicht von Vorurteilen befreit. Denn wie diese Systeme gebaut sind, hängt letztlich von vorurteilsbehafteten Menschen ab. Ein einfaches algorithmisches System kann über die Zielvorgaben diskriminieren, die Entwicklungsteams vorgeben. Oft finden solche Bewertungsvorgaben unbewusst, auf Grundlage gängiger gesellschaftlicher Stereotype statt. Das macht eine Reflexion und Diskussion darüber notwendig, welche Annahmen in algorithmische Systeme einfließen und welche individuellen und gesellschaftlichen Folgen das hat. Dann kann der Versuch stattfinden, algorithmische Systeme so zu gestalten und einzusetzen, dass sie sich an breit geteilten Wertvorstellungen orientieren.

Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick

Selbstlernende Systeme und die Gefahr der Diskriminierung

Ethische Fragestellungen zu lernenden algorithmischen Systemen, also Künstlicher Intelligenz, knüpfen direkt an die zuvor beschriebene Herausforderung an. Denn auch lernende Systeme sind eine bestimmte Art algorithmischer Systeme. Selbstlernende Bewerbungssoftware analysiert beispielsweise die Profile aller Mitarbeitenden eines Unternehmens, um herauszufinden, welche Merkmale besonders erfolgreiche Beschäftigte haben. Die herausgefilterten Muster wendet das System in Folge auf die künftigen Entscheidungen an und filtert danach Bewerbungen. Wenn ein Unternehmen in der Vergangenheit Frauen systematisch benachteiligte und deshalb zu wenige Frauen einstellte, dann lernt ein System aus diesen Daten, auch dieses Muster zu erkennen und zu übernehmen: Es wählt nun ebenfalls bevorzugt männliche Bewerber aus.

Anthropomorphe Roboter und die Frage der Empathie

Die digitalethische Debatte zu Künstlicher Intelligenz geht noch weiter. Anwendungen wie Sprachassistenten sind so gestaltet, dass die Gesprächsverläufe denen zwischen Menschen ähneln sollen. Sogenannte Interner Link: anthropomorphe Roboter, in denen verschiedene lernende Systeme wirken, sind dem menschlichen Erscheinungsbild nachempfunden. Der Bereich der Interner Link: Robotik umfasst auch nicht-menschenähnliche Roboter, die etwa in Fertigungsprozessen in der Industrie eingesetzt werden. Vor allem die anthropomorphen Roboter werfen ethische Fragen auf. Dazu zählt etwa, in welchen Bereichen und für welche Aufgaben solche Roboter eingesetzt werden sollen und wann ihr Einsatz unmöglich erscheint, weil er Konsequenzen hat, die nicht geltenden Wertvorstellungen entsprechen. Eine solche Diskussion findet gegenwärtig etwa im Bereich Pflege statt. Hier gibt es zahlreiche Einsatzbereiche, in denen Roboter entlasten könnten. Der Deutsche Ethikrat veröffentlichte im März 2020 eine Stellungnahme dazu, wie ein ethischer Umgang mit Robotern in der Pflege aussehen könnte. Er kommt zum eindeutigen Schluss, dass sie menschliches Personal nicht ersetzen dürfen. Mit ihrer Hilfe könnten bestehende personelle Engpässe nicht beseitigt werden. Roboter seien nur in bestimmten Kontexten ethisch vertretbar, etwa bei schweren Tätigkeiten wie dem Heben bewegungseingeschränkter Menschen. Jedoch dürfe ein Roboter niemals den zwischenmenschlichen Kontakt ersetzen. Auch der Grad der Autonomie von Robotern steht in der Diskussion (siehe auch Kapitel Interner Link: Kriminalität, Sicherheit und Freiheit). Eine übergeordnete Frage dabei ist: Wie selbstständig dürfen Roboter Entscheidungen treffen? Und wer übernimmt die Verantwortung für mögliche Konsequenzen dieser Entscheidungen? Die ethische Debatte behandelt hierbei, analog zur Tierethik, die Frage, ob und ab wann etwas als ein Geschöpf gilt, das eigene Rechte verdient. Letztendlich geht es dabei um das grundlegende Verhältnis zwischen Menschen und Robotern.

Die emotionale Bindung zu Robotern

Frau Darling, Sie untersuchen als Roboterethikerin die Interaktion zwischen Menschen und Maschinen. Bei Ihren Vorträgen sieht man Sie immer wieder mit einem "Pleo", einem Baby-Dino-Roboter. Wie würden Sie Ihre Beziehung beschreiben? Ich habe 2007 von diesem Spielzeug, dem Baby-Dino-Roboter aus Japan, gelesen und einen bestellt, weil mich zunächst die Technik interessiert hat. Er ist mit Mikrofonen, Berührungssensoren und Infrarotkameras ausgestattet und sehr gut darin, lebensnahes Verhalten nachzuahmen. Aber dann ist etwas passiert, was mich selbst überrascht hat: Ich habe eine emotionale Bindung zu ihm aufgebaut. Wie hat sich das bemerkbar gemacht? Pleo kann Schmerzäußerungen sehr gut nachahmen. Wenn ich meine Freunde aufgefordert habe, Pleo am Schwanz in die Höhe zu halten, fing er an zu weinen. Ich habe bemerkt, dass mich das gestört hat, was seltsam ist, denn ich weiß ja, wie die Technik funktioniert. An Robotern war ich schon immer interessiert, aber es war genau dieser Moment, der mein Interesse an Roboter-Mensch-Interaktionen geweckt hat. Haben Sie Ihren Pleos Namen gegeben? […] Etwas zu benennen ist ein Ausdruck von Empathie. Es ist bemerkenswert und oft das Erste, was Leute tun, wenn sie mit Robotern interagieren, selbst wenn es um Saugroboter im Haushalt geht. Etwa achtzig Prozent von ihnen tragen Namen […]. Wir sind in gewisser Weise biologisch darauf programmiert, Roboter als lebendige Wesen wahrzunehmen. Unser Gehirn analysiert fortwährend unsere Umgebung und teilt alles in zwei Kategorien ein: Objekte und Agenten. Wir reagieren auf bestimmte Bewegungen, und obwohl wir wissen, dass Roboter nur Objekte sind, projizieren wir Absicht und Intention in ihr Verhalten, weil sie sich auf eine Weise im Raum bewegen, die autonom erscheint. Dazu kommt unsere grundsätzliche Tendenz zu anthropomorphisieren, also menschenähnliches Verhalten, menschliche Emotionen und Qualitäten auf Nichtmenschliches zu übertragen. Wir tun das mit Tieren wie mit unseren Autos. Und wir machen das Gleiche mit Robotern. […] Wenn wir fähig sind, Robotern Mitgefühl entgegenzubringen, können wir sie ebenso gut mit anderen starken Emotionen wie Hass belegen? O ja! Ein Beispiel sind Sicherheitsroboter, die ein bisschen so aussehen wie die "Daleks" aus der Serie "Doctor Who". Diese Roboter patrouillieren oft anstelle von Wachmännern auf Parkplätzen oder in Gebäuden. Sie sind mit Kameras ausgestattet und sehen unheimlich aus. Immer wieder schubsen Leute sie, versuchen sie umzuwerfen und können sie einfach nicht leiden. Ein anderes Beispiel sind Drohnen. Menschen gefällt es nicht, von Drohnen ausspioniert und fotografiert zu werden. […] Ist Ihre Empathie Robotern gegenüber geringer geworden, seit Sie so viel über sie wissen? […] Wir können eine klinische Distanz zu ihnen gewinnen, wenn wir müssen. Aber ehrlicherweise macht es so viel Spaß und fühlt sich so natürlich an, dass wir sie wieder wie Gefährten behandeln, sobald wir nicht mehr im Dienst sind. Kate Darling beschäftigt sich am Media Lab des Massachusetts Institute of Technology mit rechtlichen, sozialen und ethischen Auswirkungen von Roboter-Mensch-Beziehungen. Anna-Lena Niemann, "Roboter sind unsere Gefährten", Interview mit Kate Darling, in: Frankfurter Allgemeine Woche Nr. 5 vom 24. Frankfurter Allgemeine Zeitung GmbH, Frankfurt.

Die Bedeutung eines gesunden Lebensstils für die Gehirnfunktion

Menschliche Charakteristika wie Kreativität, Emotionalität und Empathie sowie… Unter dem Begriff Herz-Kreislauf-Erkrankungen werden die vielfältigen Erkrankungen des Herzens und der Blutgefäße zusammengefasst. Dazu zählen insbesondere Herzinfarkt und Schlaganfall sowie Erkrankungen der Herzkranzgefäße. Herz-Kreislauf-Erkrankungen sind hierzulande mit 40 Prozent aller Sterbefälle die häufigste Todesursache. Neben unveränderbaren Faktoren wie Alter, Geschlecht und genetischer Veranlagung hat der Lebensstil einen großen Einfluss auf die Gesundheit des Herz-Kreislauf-Systems. Ein verändertes Ernährungs-, Bewegungs- und Rauchverhalten sowie die Behandlung von Bluthochdruck, Übergewicht, Diabetes und Fettstoffwechselstörungen sind demnach wichtige Stellschrauben, um das individuelle Erkrankungsrisiko zu senken. Einfache Risikoermittlung birgt großes Präventionspotential Eine zuverlässige, evidenzbasierte Risikoabschätzung für Herz-Kreislauf-Erkrankungen beschränkt sich aktuell weitestgehend auf den klinischen Bereich, denn sie erfordert meist körperliche Untersuchungen und Blutanalysen durch medizinisches Personal. „Die wenigen Vorhersagemodelle, die sich unabhängig von einer medizinischen Untersuchung nutzen lassen, haben methodische Einschränkungen und ihre Anwendung erfordert beispielsweise Informationen zur Aufnahme einzelner Nährstoffe wie Ballaststoffe. Dadurch sind sie ohne eine umfassende Datenerhebung zur Ernährung kaum anwendbar“, erklärt Dr. Catarina Schiborn, wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie am DIfE. Ziel der Wissenschaftlerin war es daher, ein evidenzbasiertes Vorhersagemodell zu entwickeln, welches das Erkrankungsrisiko unabhängig vom Arztbesuch ermittelt und dabei leicht zu erfassende Informationen nutzt. Daten von 27.500 Menschen als Basis Für die Entwicklung des Vorhersagemodells hat das Forscherteam auf die Gesundheits- und Lebensstil-Daten von rund 27.500 Teilnehmenden der EPIC-Potsdam-Studie zurückgegriffen. In die statistischen Modellierungen flossen Parameter ein, die für die Vorhersage von Herz-Kreislauf-Erkrankungen relevant sind. Dazu zählen Faktoren wie Alter, Geschlecht, Hüftumfang, Rauchverhalten, Bluthochdruck und Typ-2-Diabetes sowie Erkrankungsfälle in der Familie. Außerdem erfasst das Modell Ernährungsgewohnheiten, wie beispielsweise den Verzehr von Vollkornprodukten, rotem Fleisch und Pflanzenölen. Um zu bewerten, wie gut das Modell das Eintreten dieser sogenannten Endpunkte vorhersagt, nutzten die Forschenden Daten der vom DKFZ koordinierten Heidelberger EPIC-Studie. Zudem verglichen sie ihre Berechnungen mit etablierten Vorhersagemodellen, die klinische Parameter einschließen. Das Ergebnis: Das entwickelte nicht-klinische Vorhersagemodell sagt die Wahrscheinlichkeit einer Herz-Kreislauf-Erkrankung für die nächsten 10 Jahre ebenso präzise voraus wie klinische Modelle, die eine medizinische Untersuchung erfordern.

Fokus auf die Rolle des Lebensstils „Dass unser Vorhersagemodell sich im Vergleich zu klinischen Tests stärker auf Verhaltensparameter stützt, ist ein großer Vorteil“, sagt Prof. Dr. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE. „So tritt die Bedeutung eines präventiven Lebensstils für die Herz- und Gefäßgesundheit in den Vordergrund, statt den Fokus auf die medikamentöse Behandlung als Konsequenz eines unvorteilhaften Lebensstils zu richten“. In einem nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler das Vorhersagemodell in Form eines Risiko-Tests als frei verfügbaren Papier- und Online-Fragebogen zur Verfügung stellen. Geplant ist, das Online-Tool mit dem ebenfalls am DIfE entwickelten DIfE - Deutscher Diabetes-Risiko-Test® (DRT) zusammenzuführen, so dass eine kombinierte Risiko-Vorhersage für eine Typ-2-Diabetes-und Herz-Kreislauf-Erkrankung möglich ist. Original-Publikation: Schiborn, C., Kühn, T., Mühlenbruch, K., Kuxhaus, O., Weikert, C., Fritsche, A., Kaaks, R., Schulze, M. B.: A newly developed and externally validated non-clinical score accurately predicts 10-year cardiovascular disease risk in the general adult population. Sci Rep 11, 19609 (2021). „EPIC-Potsdam“ Die European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie des DIfE. Sie ist Teil der EPIC-Studie, einer der größten Kohortenstudien der Welt, die das Ziel hat, Beziehungen zwischen Ernährung, Ernährungsstatus, Lebensstil und Umweltfaktoren sowie der Inzidenz von Krebs und anderen chronischen Krankheiten wie Typ-2-Diabetes zu untersuchen. Bei prospektiven Kohortenstudien wird eine große Gruppe gesunder Menschen zunächst umfangreich untersucht und anschließend über einen langen Zeitraum beobachtet, welche Krankheiten auftreten. Die ca. 27.500 Teilnehmenden der EPIC-Potsdam-Studie wurden zwischen 1994 und 1998 rekrutiert und untersucht, zum Beispiel der Blutdruck und die Körpermaße bestimmt. Außerdem wurden sie zu ihren Ernährungsgewohnheiten und ihrem Lebensstil befragt und Blutproben entnommen. Im noch immer laufenden Nachbeobachtungszeitraum wurden die Studienteilnehmenden bislang sechsmal zu ihren Ernährungsgewohnheiten, ihrem Lebensstil und aufgetretenen Erkrankungen befragt. „evidenzbasiert“ Das Adjektiv beschreibt, dass etwas auf Grundlage empirisch zusammengetragener und bewerteter wissenschaftlicher Erkenntnisse erfolgt.

Resilienz und psychische Gesundheit

Neben den technologischen und ethischen Aspekten ist es auch wichtig, die individuellen Risiken und Nebenwirkungen des Gehirns zu berücksichtigen. Stress, Überlastung und negative Denkmuster können die psychische Gesundheit beeinträchtigen und zu Angstzuständen, Depressionen und Burnout führen. Es ist daher wichtig, auf die eigenen Bedürfnisse zu achten, Stress abzubauen und positive Bewältigungsstrategien zu entwickeln.

tags: #das #gehirn #ist #ein #werkzeug #dessen