LINUX.ORG.RU

История изменений

Исправление goingUp, (текущая версия) :

Короче после 400 комментариев в тред нужно набросить что-то в тему. Вот видео единственного чувака, который прочитал сабжевый документ https://www.youtube.com/watch?v=8OpW5qboDDs

Пару интересных моментов:

  1. Подписались не только Маск, но и эксперты в области
  2. Опасностями развития ИИ называют соцпроблемы, которые могут возникнуть, если часть людей внезапно начнут терять работу, дешевая генерация дезинформации, милитаризация ИИ (допустим ИИ сможет летать на самолете лучше пилота), power seeking behaviour
  3. You can’t fetch coffee, if you are dead - даже простая задача сводится к тому, что ИИ будет учиться выживать.
  4. Если появятся модели, умнее человека, их будет тяжело контролировать.
  5. Что нужно вместо того, чтобы подключить к этой штуке как можно больше Nvidia h100, сначала разобраться, что у нее происходит внутри.

Исправление goingUp, :

Короче после 400 комментариев в тред нужно набросить что-то в тему. Вот видео единственного чувака, который прочитал сабжевый документ https://www.youtube.com/watch?v=8OpW5qboDDs

Пару интересных моментов:

  1. Подписались не только Маск, но и эксперты в области
  2. Опасностями развития ИИ называют соцпроблемы, которые могут возникнуть, если часть людей внезапно начнут терять работу, дешевая генерация дезинформации, милитаризация ИИ (допустим ИИ сможет летать на самолете лучше пилота), power seeking behaviour
  3. You can’t fetch coffee, if you are dead - даже простая задача сводится к тому, что ИИ будет учится выживать.
  4. Если появятся модели, умнее человека, их будет тяжело контролировать.
  5. Что нужно вместо того, чтобы подключить к этой штуке как можно больше Nvidia h100, сначала разобраться, что у нее происходит внутри.

Исходная версия goingUp, :

Короче после 400 комментариев в тред нужно набросить что-то в тему. Вот видео единственного чувака, который прочитал сабжевый документ https://www.youtube.com/watch?v=8OpW5qboDDs

Пару интересных моментов:

  1. Подписались не только Маск, но и эксперты в области
  2. Опасностями развития ИИ называют соцпроблемы, которые могут возникнуть, если часть людей внезапно начнут терять работу, дешевая генерация дезинформации, милитаризация ИИ (допустим ИИ сможет летать на самолете лучше пилота), power seeking behaviour
  3. You can’t fetch coffee, if you are dead - даже простая задача сводится к тому, что ИИ будет учится выжывать.
  4. Если появятся модели, умнее человека, их будет тяжело контролировать.
  5. Что нужно вместо того, чтобы подключить к этой штуке как можно больше Nvidia h100, сначала разобраться, что у нее происходит внутри.