Copias de seguridad: Prevención de la catástrofe
La pérdida de información debido a que un disco duro falle, o incluso a un error humano (vease “rm -rf *” en el directorio raiz) es algo que pasa más a menudo de lo que a uno le gustaría.
El otro día leí un post acerca de la importancia de los backups en el blog de Canguro Rico y recordé que realmente es importante tener una política de backups y yo, ahora mismo, no hacía backups en mis servidores.
Si uno tiene los medios, lo mejor es tener dos discos duros en RAID-1 por hardware. Así, cuando un disco duro falla, el otro te permite reemplazar el primero y los datos se copian del segundo disco duro, al disco duro reemplazado automáticamente. Cuesta el doble de dinero, pero tienes muchisimas menos probabilidades de perder datos por que un disco duro decida fallar.
Sin embargo esto tampoco previene el fallo humano, ya que un script, con un fallo tonto, nuevamente ejecutar rm -rf * en el directorio raiz, te puede hacer perder todos tus datos. Y ya no hablo de virus para sistemas operativos Windows.
Así pues, lo mejor es guardar backups periódicos y la mejor elección es guardar estos backups en soportes distintos a los que se trabaja. Es decir, no guardes un backup en el propio disco duro que estás intentando proteger.
Para una persona o empresa que viva del software, tener backups no es recomendable, es fundamental.
En todos los sistemas operativos existen ya muchos programas para hacer backups. En mi caso, dado que siempre que puedo uso linux, utilizo el backup-manager, que es muy muy sencillo y hace lo que yo quiero.
Para el caso de los servidores, dado que estoy en un hospedaje compartido y no puedo instalar aplicaciones extra, he realizado un pequeño script que se ejecuta de forma periódica y realiza un backup tanto de los ficheros especificados como de las distintas bases de datos.
En el próximo post, el script en cuestión.
Actualizado: aquí teneis la segunda parte