このチェックツールの設問は、4つの原則に基づいて設計されています。
これらは医療倫理の4原則(自律尊重・善行・無危害・正義)を、プロダクト開発の文脈に転用したものです。
Autonomy
ユーザーが自分自身の意思で判断し、行動する自由を尊重する。
操作や強制によってユーザーの選択を歪める設計は、この原則に反します。グロースハックの名の下にユーザーを欺くこと、射幸心を煽って判断力を奪うこと、ダークパターンで意図しない行動に誘導することが該当します。
関連テーマ:
グロースハックの光と影 射幸心の設計 同意のデザイン アルゴリズムと依存 AI時代の新しい境界線Transparency
プロダクトがどのようにデータを収集し、利用しているかを、ユーザーが理解できる形で開示する。
利用規約の奥に隠された難解な説明ではなく、ユーザーが自分のデータに何が起きているかを把握できる状態を目指します。透明性は他の3原則が機能するための前提条件でもあります。何が収集され、どう使われているかをユーザーが把握できなければ、自律的な判断そのものが成り立ちません。
関連テーマ:
グロースハックの光と影 同意のデザイン データの代償 アルゴリズムと依存 AI時代の新しい境界線 プロダクト倫理を組織に実装するFairness
プロダクトの設計やアルゴリズムが、特定のユーザーグループを不当に排除したり不利益を与えたりしないことを求める。
AIが過去のデータに含まれる偏見を再生産していないか、推薦アルゴリズムが社会の分断を加速させていないか。意図しないバイアスに目を向けます。全体の精度が同じでも、エラーの分布が特定グループに偏っていれば、それは公正性の問題です。
関連テーマ:
射幸心の設計 同意のデザイン データの代償 アルゴリズムと依存 AI時代の新しい境界線 プロダクト倫理を組織に実装するSafety
プロダクトがユーザーの身体的・精神的な安全を脅かさないことを求める。
ソフトウェアの不具合が人命に関わる領域では当然のことですが、デジタルプロダクトにおいてもメンタルヘルスへの影響や依存性の誘発といった形で問われます。安全上の懸念を報告できる心理的安全性も、この原則に含まれます。
関連テーマ:
射幸心の設計 同意のデザイン ソフトウェアが命を奪うとき アルゴリズムと依存 AI時代の新しい境界線 プロダクト倫理を組織に実装するこれらの原則の詳しい解説と、各原則が実際のプロダクト開発でどう問題になるかの事例分析は、書籍「プロダクト倫理」(及川卓也 著)で詳しく取り上げています。
Amazonで見る