onlinelibrary.wiley.com
Jonathan Herington and Scott Tanona (2020). The Social Risk of Science. Hastings Center Report, 50 (6): 27–38.
これまで研究倫理は、研究が研究者および参加者に課すリスクについては議論を深めてきた。しかし、研究は第三者にもリスクを課す場合がある。こうした「社会的リスク」は、既存の原則や制度によって対処することが難しい。
社会的リスクの例
社会的リスクとして、ここでは6種類の例をあげる。これらは大きく、研究の遂行自体から生じるもの(1, 2)、研究成果の利用から生じるもの(3, 4)、研究テーマやデザインに関する選択から生じるもの(5, 6)に分けられる。こうした事例は個別的には検討されているが、経済学の用語で言うと「外部不経済」(第三者に課せられるコスト)だという点で共通している。
- (1) 人を対象とする研究の遂行によって、非参加者に課されるリスク
HIV治療の研究では、参加者のウイルス負荷を意図的に上昇させることがある。このことは参加者自身には十分に伝えられまた状況がモニターされるが、参加者の現在・未来の性的パートナーの感染リスクを上昇させる。あるいは、性的暴行を受けるリスクを下げるための介入を実験参加者に行うことは、同時に加害者の行動を変化させない限り、非参加者が暴行を受けるリスクを上昇させる可能性がある。
- (2) 人を対象としない研究の遂行によって課される安全性リスク
機能獲得実験によって作られる致死率や感染速度の高い病原菌は、安全対策を突破した場合、元の病原菌よりもはるかに破壊的なアウトブレイクを生じさせる可能性がある。同様のリスクが、フィールドでの遺伝子ドライブ実験や、気候工学の実験、強いAIの作成などにもある。
- (3) デュアルユース研究の成果の悪用に由来するリスク
デュアルユース研究とは、その成果が兵器などの危険な製造物に利用される可能性のある研究である。例えば、病原菌の解析研究は生物兵器に、ネットワークセキュリティ研究はサイバー攻撃に、自動運転技術の研究は自律兵器に応用される可能性がある。
- (4) 誠実で善意の科学利用に由来するリスク
研究の応用がいかに多くの利益をもたらすにせよ、それが無関係な人々にリスクを課す場合がある。原子力発電所の事故はその典型例だが、ほぼ全ての研究にはこのパターンのリスクがある。
- (5) 認識的(帰納的)リスク
例えばワクチンの安全性試験では、安全かどうかの結論をどこかの段階で出さなければならない。しかし、その結論は後でくつがえる可能性がある。その場合、安全ではないワクチンが出回るか(偽陽性の場合)、安全なワクチンが出回らない(偽陰性の場合)ことになる。
- (6) どの研究計画を進めるかの選択に由来するリスク
研究のための資源は有限なので、ニーズがある全ての研究を行うことはできない。そこで、ある研究を選択することは別の研究の不在を生み、それによって一定の人々がリスクにさらされる。例えば、ガン研究に資源を集中させることは、発展途上国での疾病に関する機会費用を生じさせる。
社会的リスクへの標準的対処法
社会的リスクに対処するために、人を対象とする研究における倫理原則を拡張することが提案されてきた。すなわち、適切なリスクベネフィットバランスの原則やインフォームド・コンセントの原則(同意原則)を拡張し、実験参加者だけでなく第三者に対しても、リスクの評価と最小化を行い、またインフォームドコンセントを取得するべきだ、というのだ。しかし、現在標準的な科学ガバナンスのありかたは、これらの原則を遵守できていない。
研究の自由
多くの研究者は、研究は自由放任的であるべきだと考えている。社会的な費用便益について、研究者は考えるべきではないか、考えるにせよそれは研究者自身の特権であるとされる。このアプローチが同意原則を遵守していないことは明らかだ。リスクベネフィット原則についても、少なくとも現代におけるリスクのいくらかは、入念な倫理的熟慮を行わなければ対処できないだろう。さらに、研究者が社会的リスクを考慮しようとする場合でも、研究者には特有のバイアスがあり、またここの研究者は第三者の重視する価値の専門家ではないために、うまくいかないだろう。
専門家によるリスクベネフィット分析
社会的リスクに対処するための政策はおおむね、専門家集団によるリスク・ベネフィット分析を求めている。しかしこれにも二つの問題がある。第一に、専門家は生じうる出来事の予測には長けているかもしれないが、関連する価値とそれが関係者によってどう重み付けられているかを特定するのは、極めて困難である。第二に、仮にリスクベネフィット原則を遵守する選択肢を特定できたとしても、同意原則が守られない。専門家による分析モデルは、リスクを課せられる側に意思決定能力を認めていないからだ。
第二の批判に対して、市民の代表を意思決定プロセスに関与させればよいという反論がありうる。しかし、社会的リスクが関係しうる人々の多さに比して、市民の代表は少なすぎるのが現状である。別の反論として、正統な国家によって承認された分析は正統だというものがある。というのも、民主国家における公的機関は、その決定において国民の自律性を尊重していると考えられるからだ。この議論は有効かもしれないが、社会や政治に関する実質的主張に依存しており、もはや人を対象とする研究における倫理原則の単純な拡張ではなくなっている。
拡張された同意
関連しうる個人全員にインフォームドコンセントを取ることができれば、同意原則は遵守される。しかし社会的リスクの場合これは非常に困難である。第一に、社会的リスクは極めて不確実で広範囲にわたり、また時間的にも長期におよびうるため、十分な情報を事前に与えることが難しい。第二に、インフォームドコンセントでは、同意を撤回することによってリスクを取り除くことができる。これを社会的リスクの場合に当てはめると、関係者の満場一致がない限り研究の遂行は不可能だということになる。何らかの代表制によってこの問題を回避することができるかもしれないが、その場合また話は政治に関する様々な主張に依存するものになってくる。
対人倫理から政治問題へ
実のところ、コストベネフィット原則と同意の原則を、研究者と関係者のあいだの対人倫理の問題だと考えているかぎり、両方の原則が同時に満たされることはない。社会的リスクの一定の特徴がそれを許さないからだ。その特徴とは、政治哲学の分野で「正義の情況」と呼ばれているものと近い。すなわち、
・リスクとベネフィットは広範に分配される
・リスクとベネフィットは不平等に分配される
・利害関心の対立が存在する
・資源が限られており、全員の選好を同時に満たせない
・関連する情報全てにかんする専門家は存在しない
・リスクは合算されうる
こうした特徴が示唆するのは、社会的リスクの問題とは対人道徳の問題ではなく、正義の問題だということだ。すべての人にとって正のリスクベネフィットバランスを達成する研究や、すべての人から同意を得られる研究はほぼない。そこで、誰に課せられるリスクを最小化すべきかの決定や、許容可能なリスクに関する見解の相違の中でも研究の正当性を確保する方法が必要になってくる。社会的リスクの問題とは、「特定の個人や機関の私的と思われる行為によって公衆に課せられるリスクのガバナンス」という問題であって、これは政治問題なのだ。
以上の分析から、社会的リスクの問題に対しては、政治哲学やSTS、フェミニスト科学哲学などの知見が利用されうることがわかる。そうした試みは散発的にはなされているが、より体系的に行う必要がある。ここでは、社会的リスクに対処するための5ステップからなるフレームワークを提案する。いずれのステップも、伝統的に研究倫理の問題だと考えられている範囲を大きく超えている。
- (i) いかに利益が大きくても、基本的人権や自由の観点から課すことができないリスクを特定する
- (ii) 配分的正義の観点から課すことができないリスクを特定する
- (iii) 社会的リスクにかんする個々人の判断を取り入れ総計するメカニズムを特定する
- (iv) 様々な研究計画の社会的リスクを評価する制度的構造を確立する
- (v) 社会的リスクに対処するメカニズムそれ自体のリスクを特定する
この視点からは、前述した標準的アプローチの問題点をよりよく理解することができる。専門家によるリスクベネフィット分析の難点とは、単に関係者全員に明示的同意を取れないということではない。そうではなく、代表制や正統性、選好やリスクの総計に関する適切な基準を満たしているか否かを問うべきなのだ。