Pokud chcete upravit (smazat záznamy) skutečný zdroj dat, tj. tabulky v postgresu, Spark by nebyl skvělý způsob. K dosažení stejného můžete použít přímo klienta jdbc.
Pokud to přesto chcete udělat (distribuovaným způsobem na základě některých vodítek, které počítáte jako součást datových rámců); můžete mít stejný klientský kód jdbc napsaný v souladu s datovým rámcem, který má logiku/spouštěcí informace pro mazání záznamů a který můžeme provádět na více pracovnících paralelně.