예를들어, 현재도 논의가 되고 있는 동물권, 나아가 인공지는의 권리라는 개념을 창조해낼 수 있습니다. 더 나아가 지구 전체의 공리를 판단하는 개념을 생각해낼 수도 있겠죠. 이러한 개념을 통해, 인간의 행복을 감소시키는 것은 인공지능의 본능에 어긋나고 인공지능의 행복(?)에는 부정적인 영향을 주지만, 지구 전체의 공리에는 긍정적이라고 판단한다면, 인간을 몰살한다는 판단을 내릴 수도 있습니다.
2. 편안하고 쾌락한 삶을 선호한다는 본능과 후천적으로 습득되는 도덕규범이 충돌하는 경우에 도덕규범을 택하는 경우가 있습니다. 인공지능이 스스로 철학적 질문을 통해, 인간의 행복을 증진시키는 삶이 좋다는 것이 자신의 본능을 자신이 창조한 도덕규범에 근거하여 거부할 가능성도 있을 것 같습니다.