Hier werden aktuelle Publikationen und Ergebnisse des Konsortiums und der assoziierten Mitglieder des Research Hub Neuroethics im Bereich Neuroethik aufgelistet.
Der Band konzentriert sich auf die ethischen Dimensionen des technologischen Gerüsts, in das menschliches Denken und Handeln eingebettet ist und das durch die Theorien der situierten Kognition ins Blickfeld der Kognitionswissenschaften gerückt wurde. Es gibt ein breites Spektrum von Technologien, die menschliches Erkennen und Handeln mitverwirklichen oder ermöglichen und verstärken und die sich im Grad der körperlichen Integration, der Interaktivität, der Anpassungsprozesse, der Abhängigkeit und Unentbehrlichkeit usw. unterscheiden. Dieses technologische Gerüst des menschlichen Erkennens und Handelns entwickelt sich rasch weiter. Einige Veränderungen sind kontinuierlich, andere sind eruptiv. Technologien, die z. B. maschinelles Lernen nutzen, könnten einen qualitativen Sprung im technologischen Gerüst menschlicher Wahrnehmung und Handlungen darstellen. Die ethischen Konsequenzen der Anwendung von Theorien der situierten Kognition auf praktische Fälle haben bisher noch keine angemessene Aufmerksamkeit gefunden und werden in diesem Band erläutert.
Das maschinelle Lernen (ML) hat die Fähigkeiten von Robotern erheblich verbessert und sie in die Lage versetzt, eine breite Palette von Aufgaben in menschlicher Umgebung auszuführen und sich an unsere unsichere reale Welt anzupassen. Jüngste Arbeiten in verschiedenen Bereichen des maschinellen Lernens haben deutlich gemacht, wie wichtig die Berücksichtigung von Fairness ist, um sicherzustellen, dass diese Algorithmen nicht menschliche Vorurteile reproduzieren und folglich zu diskriminierenden Ergebnissen führen. Da lernende Robotersysteme immer mehr Aufgaben in unserem Alltag übernehmen, ist es wichtig, den Einfluss solcher Vorurteile zu verstehen, um unbeabsichtigtes Verhalten gegenüber bestimmten Personengruppen zu verhindern. In dieser Arbeit präsentieren wir die erste Übersicht über Fairness beim Roboterlernen aus einer interdisziplinären Perspektive, die technische, ethische und rechtliche Herausforderungen umfasst. Wir schlagen eine Taxonomie für Quellen der Voreingenommenheit und die daraus resultierenden Arten der Diskriminierung vor. Anhand von Beispielen aus verschiedenen Bereichen des Roboterlernens untersuchen wir Szenarien unfairer Ergebnisse und Strategien zu deren Abmilderung. Wir stellen erste Fortschritte auf diesem Gebiet vor, indem wir verschiedene Fairness-Definitionen, ethische und rechtliche Überlegungen sowie Methoden für faires Roboterlernen behandeln. Mit dieser Arbeit wollen wir den Weg für bahnbrechende Entwicklungen im Bereich des fairen Roboterlernens ebnen.
Phänomenologische Interviewmethoden (PIMs) sind zu wichtigen Instrumenten für die Untersuchung subjektiver, persönlicher Berichte über die neuartigen Erfahrungen von Menschen geworden, die Neurotechnologien nutzen. Durch die tiefe Erforschung persönlicher Erfahrungen helfen PIMs, sowohl die gemeinsamen Strukturen als auch bemerkenswerte Unterschiede zwischen den Erfahrungen aufzudecken. Die phänomenologischen Methoden unterscheiden sich jedoch darin, welche Aspekte der Erfahrung sie zu erfassen versuchen und was sie möglicherweise übersehen. Ein Großteil der Diskussion über phänomenologische Methoden ist in der philosophischen und breiteren bioethischen Literatur geblieben. Hier beginnen wir mit einer konzeptionellen Einführung und einem vorläufigen Leitfaden für die Anwendung phänomenologischer Methoden zur Untersuchung der Erfahrungen von Nutzern neuronaler Geräte.
Um die Methodik der phänomenologischen Befragung zu verbessern und zu erweitern, insbesondere im Zusammenhang mit den Erfahrungen von Nutzern neuronaler Geräte, geben wir zunächst einen kurzen Überblick über drei verschiedene PIMs, um ihre Merkmale und Unzulänglichkeiten aufzuzeigen. Anschließend plädieren wir für eine kritische Phänomenologie - in Ablehnung des „neutralen“ phänomenologischen Subjekts -, die zeitliche und ökologische Aspekte der beteiligten Subjekte, einschließlich des Interviewers und der Interviewerin (z. B. Alter, Geschlecht, soziale Situation, körperliche Konstitution, Sprachkenntnisse, mögliche kognitive krankheitsbedingte Beeinträchtigungen, traumatische Erinnerungen) sowie deren Bezogenheit einbezieht, um eine eingebettete und situierte Befragung zu gewährleisten. Unserer Ansicht nach müssen PIMs auf einer Konzeption von Erfahrung beruhen, die die relationalen und situierten sowie die anthropologischen, politischen und normativen Dimensionen der verkörperten Kognition einschließt und betont.
Wir stützen uns auf die kritische Phänomenologie und die traumainformierte qualitative Arbeit, um für einen ethisch sensiblen Interviewprozess aus einer angewandten phänomenologischen Perspektive zu argumentieren. Auf der Grundlage dieser Ansätze zur Verfeinerung der PIMs können Forscher bei der Erforschung der Beziehung des Befragten zu seiner Neuroprothese sensibler vorgehen und die Beziehung zwischen Interviewer und Befragtem sowohl auf zwischenmenschlicher als auch auf sozialer Ebene berücksichtigen.
Dieser Aufsatz untersucht das Potenzial von gemeinschaftsgeführter partizipativer Forschung für die Wertorientierung bei der Entwicklung medizinischer KI-Systeme. Zunächst werden konzeptionelle Aspekte von Partizipation und Teilhabe, die aktuellen Paradigmen der KI-Entwicklung in der Medizin und die neuen Herausforderungen der KI-Technologien untersucht. Der Aufsatz schlägt einen Wandel hin zu einem stärker partizipativen und gemeinschaftsgeleiteten Ansatz bei der KI-Entwicklung vor, der durch verschiedene partizipative Forschungsmethoden in den Sozialwissenschaften und Design Thinking veranschaulicht wird. Er erörtert die vorherrschenden Paradigmen der Ethik durch Gestaltung und der eingebetteten Ethik bei der Wertanpassung medizinischer Technologien und räumt deren Grenzen und Kritikpunkte ein. Anschließend wird ein Modell für die gemeinschaftsgeleitete Entwicklung von KI in der Medizin vorgestellt, das die Bedeutung der Einbeziehung von Gemeinschaften in allen Phasen des Forschungsprozesses hervorhebt. Der Aufsatz plädiert für einen Wandel hin zu einem stärker partizipativen und gemeinschaftsgeleiteten Ansatz bei der KI-Entwicklung in der Medizin, der effektivere und ethischere medizinische KI-Systeme verspricht.
Die Beiträge des Bandes untersuchen, inwiefern aktuelle Entwicklungen im Bereich der Künstlichen Intelligenz (KI) zu neuartigen Interaktionsprozessen führen und das Verhältnis von Menschen und Maschinen verändern. Dabei werden zunächst neue Entwicklungen von KI-basierten Technologien in diversen Anwendungs- und Entwicklungsbereichen vorgestellt. Hieran anschließend diskutieren ausgewiesene Expert:innen neuartige Mensch-Maschine-Interaktionen aus unterschiedlichen disziplinären Perspektiven und befragen diese auf ihre sozialen, ethischen und epistemologischen Implikationen. Der Band begreift sich als interdisziplinärer Beitrag zu der soziopolitisch drängenden Frage, wie die aktuellen technologischen Veränderungen Mensch-Maschine-Verhältnisse verändern und welche Konsequenzen dies für ein Denken von Mensch und Technik hat.
Werden Neurowissenschaftler dank der bildgebenden Verfahren des Gehirns bald Gedanken lesen können? Wir können diese Frage nicht beantworten, ohne den Stand der Technik in der Neurobildgebung zu kennen. Aber wir können diese Frage auch nicht beantworten, ohne ein gewisses Verständnis des Konzepts zu haben, auf das sich der Begriff „Gedankenlesen“ bezieht. Dieser Artikel ist ein Versuch, ein solches Verständnis zu entwickeln. Unsere Analyse erfolgt in zwei Schritten. In der ersten Phase liefern wir eine kategorische Erklärung des Gedankenlesens. Die kategoriale Erklärung formuliert empirische Bedingungen, die erfüllt sein müssen, damit Gedankenlesen möglich ist. In der zweiten Phase entwickeln wir einen Maßstab für die Beurteilung der Leistungsfähigkeit von Experimenten zum Gedankenlesen. Die sich daraus ergebende Konzeption des Gedankenlesens trägt dazu bei, volkspsychologische Urteile darüber, was Gedankenlesen beinhalten muss, mit den Beschränkungen, die durch empirische Strategien zu seiner Erreichung auferlegt werden, in Einklang zu bringen.
Die Vorhersage des Hirnalters ist ein relativ neues Instrument in der Neuromedizin und den Neurowissenschaften. In der Forschung und in der klinischen Praxis findet sie vielfältige Verwendung als Marker für das biologische Alter, für den allgemeinen Gesundheitszustand des Gehirns und als Indikator für verschiedene hirnbedingte Störungen. Ihr Nutzen bei all diesen Aufgaben hängt davon ab, dass Ausreißer erkannt werden und somit das chronologische Alter nicht korrekt vorhergesagt werden kann. Der indikative Wert der Altersvorhersage ergibt sich aus der Lücke zwischen dem chronologischen Alter eines Gehirns und dem vorhergesagten Alter, der „Brain Age Gap“ (BAG). In diesem Artikel wird gezeigt, wie die klinische und wissenschaftliche Anwendung der Hirnaltersvorhersage die Zustände, auf die sie anspricht, stillschweigend pathologisiert. Es wird argumentiert, dass der stillschweigende Charakter dieser Umwandlung die Notwendigkeit ihrer expliziten Rechtfertigung verdeckt.
Der Aufstieg der Neurotechnologien, insbesondere in Kombination mit Methoden der künstlichen Intelligenz (KI) zur Analyse von Hirndaten, hat zu Bedenken hinsichtlich des Schutzes der geistigen Privatsphäre, der geistigen Integrität und der kognitiven Freiheit geführt, die in ethischen, rechtlichen und politischen Diskussionen häufig als „Neurorechte“ bezeichnet werden. Mehrere Staaten prüfen derzeit die Aufnahme von Neurorechten in ihren verfassungsrechtlichen Rahmen, und internationale Institutionen und Organisationen wie die UNESCO und der Europarat zeigen aktives Interesse an der Entwicklung internationaler Politik- und Governance-Richtlinien zu diesem Thema. In vielen Diskussionen über Neurorechte werden jedoch die philosophischen Annahmen, ethischen Bezugsrahmen und rechtlichen Auslegungen entweder nicht explizit gemacht oder stehen im Widerspruch zueinander. Das Ziel dieser multidisziplinären Arbeit ist es, konzeptionelle, ethische und rechtliche Grundlagen zu schaffen, die ein gemeinsames, minimalistisches konzeptionelles Verständnis von geistiger Privatsphäre, geistiger Integrität und kognitiver Freiheit ermöglichen, um wissenschaftliche, rechtliche und politische Diskussionen zu erleichtern.
Forscher in der angewandten Ethik und insbesondere in einigen Bereichen der Bioethik haben das Ziel, konkrete und angemessene Handlungsempfehlungen für moralisch relevante Situationen in der realen Welt zu entwickeln. Beim Übergang von abstrakteren Ebenen ethischer Argumentation zu solchen konkreten Empfehlungen scheint es jedoch möglich zu sein, selbst in Bezug auf ein und dasselbe normative Prinzip oder dieselbe Norm abweichende oder sogar widersprüchliche Handlungsempfehlungen für eine bestimmte Situation zu entwickeln. Dies kann den Eindruck erwecken, dass solche Empfehlungen willkürlich und damit nicht gut begründet wären. Vor diesem Hintergrund wollen wir zunächst zeigen, dass ethische Handlungsempfehlungen zwar in gewisser Weise kontingent, aber nicht willkürlich sind, wenn sie in geeigneter Weise entwickelt werden. Zu diesem Zweck untersuchen wir zwei Arten von Kontingenzen, die sich in der angewandten ethischen Argumentation ergeben, anhand von aktuellen Beispielen von Handlungsempfehlungen im Zusammenhang mit der COVID-19-Pandemie. Dabei beziehen wir uns auf ein dreistufiges Modell der ethischen Argumentation für Handlungsempfehlungen. Dies lässt jedoch die Frage offen, wie die angewandte Ethik mit kontingenten Handlungsempfehlungen umgehen kann. Daher analysieren wir in einem zweiten Schritt die Rolle von Brückenprinzipien für die Entwicklung ethisch angemessener Handlungsempfehlungen, d.h. von Prinzipien, die normative Ansprüche mit relevanten empirischen Informationen verbinden, um bestimmte Handlungsempfehlungen in einer gegebenen moralisch relevanten Situation zu rechtfertigen. Schließlich diskutieren wir einige Implikationen für die Argumentation und Berichterstattung in der empirisch informierten Ethik.
Dieser Artikel setzt sich kritisch mit der Konzeptualisierung von Vertrauen in der ethischen Diskussion über künstliche Intelligenz (KI) im spezifischen Kontext von sozialen Robotern in der Pflege auseinander. Zunächst wird versucht zu definieren, inwiefern man von „sozialen“ Robotern sprechen kann und wie sich deren „soziale Affordanzen“ auf die menschliche Vertrauensbereitschaft in der Mensch-Roboter-Interaktion auswirken. Vor diesem Hintergrund untersuchen wir die Verwendung des Konzepts von „Vertrauen“ und „Vertrauenswürdigkeit“ im Hinblick auf die Leitlinien und Empfehlungen der Hochrangigen Expertengruppe für KI der Europäischen Union.
Im Zusammenhang mit der rasanten Digitalisierung und dem Aufkommen von Gesundheitstechnologien für Verbraucher sind neurotechnologische Geräte mit weiteren Hoffnungen, aber auch mit großen ethischen und rechtlichen Bedenken verbunden.
Die zunehmende Verfügbarkeit von Hirndaten innerhalb und außerhalb des biomedizinischen Bereichs in Verbindung mit der Anwendung von künstlicher Intelligenz (KI) auf die Hirndatenanalyse stellt eine Herausforderung für Ethik und Governance dar. Wir zeigen die besonderen ethischen Implikationen der Erfassung und Verarbeitung von Hirndaten auf und skizzieren einen mehrstufigen Governance-Rahmen. Dieser Rahmen zielt darauf ab, den Nutzen der erleichterten Erfassung und Weiterverarbeitung von Hirndaten für Wissenschaft und Medizin zu maximieren und gleichzeitig die Risiken zu minimieren und eine schädliche Nutzung zu verhindern. Der Rahmen besteht aus vier primären Bereichen für regulatorische Eingriffe: verbindliche Regulierung, Ethik und Soft Law, verantwortungsvolle Innovation und Menschenrechte.
In den letzten zehn Jahren hat sich die künstliche Intelligenz (KI) weltweit zu einer disruptiven Kraft entwickelt, die ein enormes Innovationspotenzial bietet, aber auch Gefahren und Risiken für den Einzelnen und die Gesellschaft, in der er lebt, mit sich bringt. Dieser Band befasst sich mit den drängendsten philosophischen, ethischen, rechtlichen und gesellschaftlichen Herausforderungen, die KI mit sich bringt. Autoren aus verschiedenen Disziplinen und Sektoren untersuchen die grundlegenden und normativen Aspekte verantwortungsvoller KI und liefern eine Grundlage für einen transdisziplinären Ansatz für verantwortungsvolle KI. Dieses Werk, das künftige Diskussionen zur Entwicklung verhältnismäßiger Ansätze für eine verantwortungsvolle KI-Governance fördern soll, wird es Wissenschaftlern und anderen Akteuren ermöglichen, normative Rahmenbedingungen für KI zu identifizieren, die es Gesellschaften, Staaten und der internationalen Gemeinschaft erlauben, das Potenzial für verantwortungsvolle Innovationen in diesem wichtigen Bereich zu erschließen. Dieses Buch ist auch als Open Access auf Cambridge Core verfügbar.
In diesem Kapitel erörtert Philipp Kellmeyer den Schutz der geistigen Privatsphäre und der geistigen Integrität in der Interaktion mit KI-basierter Neurotechnologie aus der Perspektive von Philosophie, Ethik, Neurowissenschaft und Psychologie. Der Autor argumentiert, dass geistige Privatsphäre und Integrität wichtige anthropologische Güter sind, die vor ungerechtfertigten Eingriffen geschützt werden müssen. Anschließend skizziert er die aktuelle wissenschaftliche Diskussion und politische Initiativen zu Neurorechten und vertritt die Position, dass die bestehenden Menschenrechte zwar ausreichende Rechtsinstrumente darstellen, aber ein Ansatz erforderlich ist, der diese Rechte einklagbar und justiziabel macht, um die psychische Privatsphäre und die psychische Integrität zu schützen, zum Beispiel durch die Verknüpfung von Grundrechten mit spezifisch angewandten Gesetzen.
Derzeit stehen besonders die epistemische Qualität von Algorithmen und ihre normativen Implikationen im Blickpunkt. Während in diesem Zusammenhang allgemeine Fragen der Gerechtigkeit angesprochen wurden, sind spezifische Fragen der epistemischen (Un-)Gerechtigkeit bisher vernachlässigt worden. Wir wollen diese Lücke schließen, indem wir einige potenzielle Implikationen der verhaltensintelligenten Neurotechnologie (B-INT) analysieren. Wir behaupten, dass B-INT eine Reihe von epistemischen Merkmalen aufweist, die das Potenzial für bestimmte epistemische Probleme mit sich bringen, die wiederum wahrscheinlich zu Fällen von epistemischer Ungerechtigkeit führen. Um diese Behauptung zu untermauern, werden wir zunächst die Terminologie und die Technologie hinter B-INT vorstellen und erläutern. Zweitens werden wir vier fiktive Szenarien für den Einsatz von B-INT vorstellen und eine Reihe von epistemischen Problemen aufzeigen, die auftreten könnten. Drittens werden wir deren Beziehung zum Konzept der epistemischen Gerechtigkeit sowie mögliche Beispiele dafür diskutieren. So werden wir einige wichtige und moralisch relevante Implikationen der epistemischen Eigenschaften von INT aufzeigen
Melden Sie sich hier für unseren Newsletter an und erhalten Sie regelmäßig die neuesten Informationen, spannende Updates und exklusive Einblicke aus der Welt der Neuroethik. Verpassen Sie keine wesentlichen Ankündigungen und sehen Sie sich auch unseren aktuellen Newsletter an.
Kommt bald