История изменений
Исправление Obezyan, (текущая версия) :
lisp довольно продолжительное время удерживал первенство в этой сфере, особенно в области символического искусственного интеллекта и области экспертных систем. Но, видимо, после прошлой «AI winter» что-то изменилось и я не могу понять что именно. Были ли это причины, связанные с самим языком или «просто так получилось»?
AI имеют разный вид. В прошлом, это были symbolic AI, т.е. символьные ИИ которые оперировали символами и концепциями/утверждениями. Lisp отлично подходит для подобных ИИ, но со временем выяснилось что этого мало, системы упираются в свой потолок и чтобы двигаться дальше нужна работа с данными, много работы с большими данными. А технические возможности 20 века (железо) не позволяли на тот момент эффективно (параллельно) минимизировать ошибку. Вот это вот ожидание пока железо станет способным переваривать данные для ML и есть «AI winter». Вообще, цепное правило Лейбница известно с 17 века, но его практическое применение в виде метода обратного распространения ошибки стало возможно только в 21 веке.
Современные AI полностью полагаются на методы обучения на основе данных - Machine Learning. Это другие по структуре AI и вся выразительность Lisp тут просто нахер никому не нужна чтобы там не пел lovesan. Нужна простота работы с данными, преобразование типов и биндинги к С/С++ библиотекам разработанными производителями видеокарт. Сейчас на первый план выходит скорость практической проверки гипотез какая из конфигураций сети оптимальнее, когда на одну задачу может создаваться 3-5-7 сетей с разной конфигурацией, обучаться на одном и том же наборе данных и затем оставляется наиболее удачная конфигурация. Lisp не нужен в Machine Learning еще и потому что в ИИ основанных на изучении данных важную роль играет структура самой сети, те самые гиперпараметры которые подбирают эмпирически и исходя «из предыдущего опыта».
Именно поэтому взяли Python т.к. он конечно имеет кучу минусов как и любой другой язык, но отлично удовлетворяет требованиям именно Machine Learning подхода. Поэтому на нем столько программ и библиотек под ML создано что он стал де факто стандартом в ML отрасли. Но если вдруг понадобиться разработать ИИ который проверяет леммы и пытается строить доказательства, то конечно сюда лучше подойдет Symbolic AI + Lisp, а не Machine Learning AI + Python.
Исходная версия Obezyan, :
lisp довольно продолжительное время удерживал первенство в этой сфере, особенно в области символического искусственного интеллекта и области экспертных систем. Но, видимо, после прошлой «AI winter» что-то изменилось и я не могу понять что именно. Были ли это причины, связанные с самим языком или «просто так получилось»?
AI имеют разный вид. В прошлом, это были symbolic AI, т.е. символьные ИИ которые оперировали символами и концепциями/утверждениями. Lisp отлично подходит для подобных ИИ, но со временем выяснилось что этого мало, системы упираются в свой потолок и чтобы двигаться дальше нужна работа с данными, много работы с большими данными. А технические возможности 20 века (железо) не позволяли на тот момент эффективно (параллельно) минимизировать ошибку. Вот это вот ожидание пока железо станет способным переваривать данные для ML и есть «AI winter». Вообще, цепное правило Лейбница известно с 17 века, но его практическое применение в виде метода обратного распространения ошибки стало возможно только в 21 веке.
Современные AI полностью полагаются на методы обучения на основе данных - Machine Learning. Это другие по структуре AI и вся выразительность Lisp тут просто нахер никому не нужна чтобы там не пел lovesan. Нужна простота работы с данными, преобразование типов и биндинги к С/С++ библиотекам разработанными производителями видеокарт. Сейчас на первый план выходит скорость практической проверки гипотез какая из конфигураций сети оптимальнее, когда на одну задачу может создаваться 3-5-7 сетей с разной конфигурацией, обучаться на одном и том же наборе данных и затем оставляется наиболее удачная конфигурация. Lisp не нужен в Machine Learning потому что в ИИ основанных на изучении данных важную роль играет структура самой сети, те самые гиперпараметры которые подбирают эмпирически и исходя «из предыдущего опыта».
Именно поэтому взяли Python т.к. он конечно имеет кучу минусов как и любой другой язык, но отлично удовлетворяет требованиям именно Machine Learning подхода. Поэтому на нем столько программ и библиотек под ML создано что он стал де факто стандартом в ML отрасли. Но если вдруг понадобиться разработать ИИ который проверяет леммы и пытается строить доказательства, то конечно сюда лучше подойдет Symbolic AI + Lisp, а не Machine Learning AI + Python.