Какова должна быть мотивация сильного искусственного интеллекта, чтобы он сочувствовал живым существам?
Если контракта не будет существовать, то есть ненулевая вероятность, что роботы убъют всех человеков, даже если это совсем не цель. Если вероятность ненулевая и время неограничено, то событие наступит.
Во многих семьях домашних питомцев не держат. Держат только в тех, где считают, что это полезно/приятно.
Собственно, как должен работать этот социальный контракт?