Есть ли хорошие?
В моем понимании это должна быть программа, запускаемая локально вручную или автоматически.
Могут быть предопределенные списки сайтов, но разумеется должна уметь добавлять новые и удалять не нужные. Возможно какие-то донастройки для краулинга конкретных сайтов.
Программа должна использовать как RSS, так и краулить автоматически, причем успешно при этом притворяться человеком, а то некоторые сайты взяли моду обнаруживать автоматическое сканирование.
Должны быть гибко настраиваемые фильтры поиска. Как минимум просто по ключевым словам с учетом морфологии и/или с регулярными выражениями.
Результаты поиска должны интеллектуально обрабатываться. Уметь группировать примерно одинаковые новости, распознавая как-то одинаковость. Байесовые фильтры? Нейросетки всякие наверное не очень годятся, в том числе из-за монструозности для конечных пользователей.
Все это конечно в архив должно уметься заноситься с поиском и/или по нему.
И очень принципиальное: это все должно уметь работать строго локально (или на своем сервере). Никаких облаков, никакой телеметрии, удаленных хранений настроек и прочей дичи.
Как-то так?
Что-то и вообще не особо находится и тем более СПО-ное. Не с одной стороны, хватает разных краулеров, но или они совсем примитивные или что-то они не совсем тем занимаются, например, https://vc.ru/seo/175966-bolshoe-sravnenie-20-desktopnyh-veb-kraulerov - это скорее инструменты SEO-ника, чем для удовлетворения интереса к новостям.