Скачок в развитии ИИ, который мы наблюдали с GPT-3 и GPT-4, стал возможен благодаря использованию огромных объемов данных, созданных людьми. Эти данные позволяли обучить модели на различных языках, стилях и темах, создавая эффективные системы, которые могли работать в самых разных контекстах.
Однако, если ИИ начнет генерировать сам себе контент для обучения, результат может быть не таким революционным. Вместо новых скачков развития, мы можем столкнуться с стагнацией или исчерпанием возможностей для улучшения, если модели начнут работать только на основе сгенерированного контента. Появление «цифровых копий» друг друга создаст эффект порочного круга, где каждая новая модель становится более похожей на предыдущую, не добавляя значительных улучшений.
Выходит, человек будет нужен как минимум для решения вопроса с созданием энтропии и разнообразия, так?