sql >> Databáze >  >> RDS >> Mysql

Import velkých tabulek MySQL

Část problému s tak obrovským exportem je (pravděpodobně) způsobena nadbytečnostmi v něm. Pravděpodobně existují tisíce příkazů "INSERT", které při načtení všech najednou zabírají obrovský kus paměti.

Pokud máte přesně stejná data jako CSV, vytvořil bych malý PHP skript, který by procházel řádek po řádku souborem CSV a dynamicky vytvořil dotaz INSERT sql a poté jej provedl. To by mělo udržet paměťovou náročnost velmi nízkou, protože byste mohli po každém vložení měnit hodnoty dočasných proměnných (odpovídajících polím).

Připojil jsem k funkci, kterou bych zkusil použít. Jmenuje se fgetcsv. Tento odkaz také obsahuje nějaké vzorové skripty, které by vám podle mě mohly být užitečné a které vytvořili jiní uživatelé.

Hodně štěstí!

Funkce fgetcsv PHP k použití pro čtení po řádcích



  1. PHP Ukládání relací do databáze. Zdá se, že metoda čtení nefunguje

  2. Analýza smrti o tisíc snižuje pracovní zátěž

  3. GROUP BY - neseskupujte NULL

  4. Je možné, aby se aplikace PHP postavená na kódu codeigniter připojila současně k databázi MySQL A mongoDB?