Помогите решить проблему записи большого датафрейма в postgres таблицу. Есть датафрейм df, который с небольшим количеством данных (несколько сот записей тестирвовал) успешно и быстро сохраняется в postgres таблицу:
df.to_sql(
'my_table', my_engine, chunksize=100, if_exists='replace')
Но, в требуемом режиме (продовском), когда число записей достигает приблизительно 500 тыс. строк ничего не происходит. Оператор висит несколько часов и молча завершается без всяких сообщений. Данные при это не попадают в postgres - нет ни одной записи. Табличка создается, если ее удалить предварительно. При этом датафрейм имеется и его строки успешно печатаются в консоли ...
Что можно сделать? Почему нет ни одной записи, хотяюбы первые 100 штук?