Ladda ner hemsidan med wget

När jag bygger en ny hemsida till en kund kopierar jag alltid ner hela nuvarande hemsidan.  Oftast använder jag den bara för att hitta gamla texter, formuleringar, bilder eller inlänkade dokument som kunden inte hittar.

Kör man OS X eller Linux är det enkelt. Man öppnar programmet Terminalen och skriver följande:

wget -p -k -r http://hemsidan.se/

I detta fallet hade det hamnat en mapp på skrivbordet som heter hemsidan.se som innehåller all HTML, CSS, JS och bilder. Tänk dock på att all server-side-kod (tex PHP) körs så man får inte ner funktionaliteten utan bara innehållet. Databasen sparas inte heller ner utan bara datan i databasen.

Hur ser dina knep ut?