Myslím, že nemusíte kopírovat postgres jar v slaves, protože program ovladače a správce clusteru se o vše postarají. Vytvořil jsem datový rámec z externího zdroje Postgres následujícím způsobem:
Stáhněte si ovladač postgres jar :
cd $HOME && wget https://jdbc.postgresql.org/download/postgresql-42.2.5.jar
Vytvořit datový rámec :
atrribute = {'url' : 'jdbc:postgresql://{host}:{port}/{db}?user={user}&password={password}' \
.format(host=<host>, port=<port>, db=<db>, user=<user>, password=<password>),
'database' : <db>,
'dbtable' : <select * from table>}
df=spark.read.format('jdbc').options(**attribute).load()
Odeslat do spark job: Při odesílání zapalovací úlohy přidejte stažený jar do cesty třídy ovladače.
--properties spark.driver.extraClassPath=$HOME/postgresql-42.2.5.jar,spark.jars.packages=org.postgresql:postgresql:42.2.5