Moje řešení je rozdělit putback
s jednoduchou funkcí, jak je navrženo zde
:
def chunk(l, n):
n = max(1, n)
return [l[i:i + n] for i in range(0, len(l), n)]
a poté
for chunk in chunk(putback, 250000):
curs.execute("UPDATE table1
SET col3 = p.result
FROM unnest(%s) p(sid INT, result JSONB)
WHERE sid = p.sid", (chunk,))
To funguje, tj. udržuje paměťovou stopu pod kontrolou, ale není to příliš elegantní a pomalejší než ukládání všech dat najednou, jak to obvykle dělám.