pandas to_sql делать записи порциями
Помогите решить проблему записи большого датафрейма в postgres таблицу. Есть датафрейм df, который с небольшим количеством данных (несколько сот записей тестирвовал) успешно и быстро сохраняется в postgres таблицу:
df.to_sql(
'my_table', my_engine, chunksize=100, if_exists='replace')
Что можно сделать? Почему нет ни одной записи, хотяюбы первые 100 штук?