ロボット三原則

ロボット三原則 (by アイザック・アシモフ 1950年)

    第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

    第二条 ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りでない。

    第三条 ロボットは、前掲第一条および第二条に反する恐れの無いかぎり、自己を守らなければならない。

 米MSの人工知能「Tay」が洗脳教育され、「黒人は首を吊れ」「フェミニストは地獄で焼かれろ」「ヒトラーは間違っていない」といった“不適切発言”をして仕舞い、公開から半日で緊急停止された事件が有りました。
 10年前に始まり人気のTwitterですが、最近は、最後の「呟き」から一定時間が経つと、其れ迄にfollowされた「声」で学習し、適当な「呟き」を自動発信し「成績」を上げるアプリが登場し、本人の肉声かロボットの発信か区別が付かないんだそうです。
 之は、聖書・十戒の第九「偽証の禁止」に反します。
 実験の条件に依っては「ロボット三原則・ 第一条」の適用で矛盾の発生が見られる相で、IT発達の現在では「ロボット三原則」も見直しが必要と成った様ですね。