Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Administrador de protección de datos (DPM) de System Center puede usar desduplicación de datos.
La desduplicación de datos (dedup) busca y quita datos duplicados en un volumen al tiempo que garantiza la corrección e integridad de esos datos. Obtén más información sobre el planeamiento de desduplicación.
La deduplicación reduce el consumo de almacenamiento. Aunque la cantidad de redundancia de un conjunto de datos depende del volumen de trabajo y del tipo de datos, normalmente los datos de copia de seguridad muestran importantes ahorros cuando se utiliza la deduplicación.
Puede reducir aún más la redundancia de datos con desdup cuando se procesan juntos los datos de copia de seguridad de tipos y cargas de trabajo similares.
Dedup está diseñado para instalarse en volúmenes de datos principales sin la necesidad de hardware dedicado adicional, de manera que no afecte a la carga de trabajo principal en el servidor. La configuración predeterminada es no intrusiva porque permite que los datos alcancen una antigüedad de cinco días antes de procesar un archivo determinado, y tiene un tamaño mínimo de archivo predeterminado de 32 KB. La implementación está diseñada para un uso bajo de memoria y CPU.
Puede implementar desdup en las cargas de trabajo siguientes:
Recursos compartidos de archivos generales: publicación y uso compartido de contenido de grupo, carpetas personales de usuarios, y redirección de carpetas/archivos sin conexión
Recursos compartidos de implementación de software: archivos binarios, imágenes y actualizaciones de software
Bibliotecas de VHD: almacenamiento de archivos en discos duros virtuales (VHD) para el aprovisionamiento de hipervisores
Implementaciones de VDI (solo Windows Server 2012 R2): implementaciones de Infraestructura de escritorio virtual (VDI) mediante Hyper-V
Copia de seguridad virtualizada: soluciones de copia de seguridad (como DPM que se ejecutan en una máquina virtual de Hyper-V) que guardan los datos de copia de seguridad en archivos VHD/VHDX en un servidor de archivos de Windows
DPM y desduplicación
El uso de desduplicación con DPM puede dar lugar a grandes ahorros. La cantidad de espacio ahorrado por desduplicación al optimizar los datos de copia de seguridad de DPM varía en función del tipo de datos de los que se realiza una copia de seguridad. Por ejemplo, una copia de seguridad de un servidor de base de datos cifrado podría dar lugar a un ahorro mínimo, ya que el proceso de cifrado oculta los datos duplicados. Sin embargo, la copia de seguridad de una implementación de infraestructura de escritorio virtual (VDI) de gran tamaño puede dar como resultado un gran ahorro en el intervalo del 70 % a más del 90 %, ya que suele haber una gran cantidad de duplicación de datos entre los entornos de escritorio virtuales. En la configuración descrita en el artículo, ejecutará varias cargas de trabajo de prueba y verá ahorros entre 50% y 90%.
Para usar la desduplicación para el almacenamiento DPM, ejecute DPM en una máquina virtual Hyper-V y almacene datos de copia de seguridad en VHDs en carpetas compartidas con la desduplicación de datos habilitada.
Implementación recomendada
Para implementar DPM como una máquina virtual que realiza una copia de seguridad de datos en un volumen de desduplicación, use la siguiente topología de implementación:
DPM en ejecución en una máquina virtual dentro de un clúster de hosts Hyper-V.
Almacenamiento DPM con archivos VHD y VHDX almacenados en un recurso compartido SMB 3.0 en un servidor de archivos.
En el ejemplo de prueba, el servidor de archivos se configura como un servidor de archivos de escalabilidad horizontal (SOFS) implementado mediante volúmenes de almacenamiento configurados desde grupos de espacios de almacenamiento creados mediante unidades SAS conectadas directamente. Esta implementación garantiza el rendimiento a escala.
Tenga en cuenta la información siguiente:
DPM admite esta implementación para DPM 2012 R2 y versiones posteriores y para todos los datos de carga de trabajo de los que DPM 2012 R2 y versiones posteriores pueden realizar copias de seguridad.
Todos los nodos de Windows File Server donde residen los discos duros virtuales DPM y donde está habilitada la desduplicación deben ejecutar Windows Server 2012 R2 con el paquete acumulativo de actualizaciones de noviembre de 2014 o posterior.
En el artículo se proporcionan recomendaciones generales e instrucciones para la implementación del escenario. Cada vez que se proporcionan ejemplos específicos del hardware, el hardware implementado en el sistema de plataforma de Microsoft Cloud (CPS) se usa como referencia.
Este ejemplo usa recursos compartidos de SMB 3.0 para almacenar los datos de copia de seguridad, por lo que los principales requisitos de hardware se centran en los nodos del servidor de archivos en lugar de en los nodos de Hyper-V. La siguiente configuración de hardware se usa en CPS para el almacenamiento de respaldo y de producción. El hardware en su conjunto se utiliza tanto para el almacenamiento de copia de seguridad como para el de producción, pero el número de unidades enumeradas en las carcasas de unidades son solo aquellas utilizadas para la copia de seguridad.
Clúster de servidores de archivos de escalabilidad horizontal con cuatro nodos
Por configuración de nodo
2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 núcleos, 16 procesadores lógicos
Memoria RDIMM de 1333 MHz de 128 GB
Conexiones de almacenamiento: 2 puertos de SAS, 1 puerto de 10 GbE iWarp/RDMA
Cuatro carcasas de disco JBOD
18 discos en cada JBOD: 16 HDD de 4 TB + 2 SSD de 800 GB
Doble ruta de acceso a cada unidad: política de equilibrio de carga de ruta de E/S multipath configurada solo para conmutación por error
SSD configurados para caché de retroescritura (WBC) y el resto para discos de diario dedicados
Configurar volúmenes de deduplicación
Considere la forma en que los grandes volúmenes deben ser compatibles con los archivos VHDX desduplicados que contienen datos DPM. En CPS, cree volúmenes de 7,2 TB cada uno. El tamaño óptimo del volumen depende principalmente de la cantidad y la frecuencia con la que cambian los datos del volumen y de las tasas de rendimiento de acceso a datos del subsistema de almacenamiento en disco. Si el procesamiento de desduplicación no puede mantenerse al día con la tasa de cambios diarios de datos (la rotación), la tasa de ahorro disminuye hasta que el procesamiento pueda completarse. Para más información, consulta Dimensionamiento de volúmenes para desduplicación de datos. Se recomiendan las siguientes directrices generales para volúmenes deduplicados:
Usa espacios de almacenamiento de paridad con reconocimiento del contenedor para lograr resistencia y un mayor uso de disco.
Formatea NTFS con unidades de asignación de 64 KB y segmentos de registros de archivos grandes para trabajar mejor con el uso de deduplicación de archivos dispersos.
En la configuración de hardware anterior al tamaño de volumen recomendado de 7,2 TB, configure los volúmenes de la siguiente manera:
Paridad dual con reconocimiento de recinto de 7,2 TB + caché de escritura diferida de 1 GB
ResiliencySettingName == Paridad
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 KB (el rendimiento de paridad dual en intercalación de 64 KB es mucho menor que en la intercalación predeterminada de 256 KB)
IsEnclosureAware == $true
Tamaño de Unidad de Asignación=64 KB
FRS grandes
Configura un nuevo disco virtual en el bloque de almacenamiento especificado de la siguiente manera:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $trueDé formato a cada uno de estos volúmenes como:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -ForceEn la implementación de CPS, configure estos volúmenes como CSV.
Dentro de estos volúmenes, DPM almacena una serie de archivos VHDX para almacenar los datos de copia de seguridad. Habilitar la desduplicación en el volumen tras formatearlo de la siguiente manera:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$falseEste comando también modifica las siguientes configuraciones de desduplicación a nivel de volumen:
Establecer UsageType en HyperV: esta configuración da como resultado el procesamiento de desduplicación de archivos abiertos, que son necesarios porque los archivos VHDX usados por DPM para el almacenamiento de copias de seguridad permanecen abiertos mientras DPM se ejecuta en su máquina virtual.
Deshabilitar PartialFileOptimization: esta configuración hace que Dedup optimice todas las secciones de un archivo abierto en lugar de buscar secciones modificadas usando un criterio de antigüedad mínima.
Establezca el parámetro MinFileAgeDays en 0: con PartialFileOptimization deshabilitado, MinFileAgeDays cambia su comportamiento para que el desdup solo tenga en cuenta los archivos que no han cambiado en esos días. Para asegurarse de que la desdup comienza a procesar los datos de copia de seguridad en todos los archivos VHDX de DPM sin ningún retraso, establezca MinFileAgeDays en 0.
Para obtener más información sobre cómo configurar la deduplicación, consulta en Instalación y configuración de la deduplicación de datos.
Configuración de almacenamiento DPM
Para evitar problemas de fragmentación y mantener la eficacia, asigne almacenamiento DPM mediante archivos VHDX que residen en los volúmenes desduplicados. Cree diez archivos VHDX dinámicos de 1 TB cada uno en cada volumen y adjunte a DPM. Además, sobreaprovisione 3 TB de almacenamiento para aprovechar las ventajas del ahorro de almacenamiento proporcionadas por la deduplicación. Como desdup proporciona ahorros de almacenamiento adicionales, puede crear nuevos archivos VHDX en estos volúmenes para consumir el espacio guardado. Probamos el servidor DPM con hasta 30 archivos VHDX adjuntos.
Ejecute el comando siguiente para crear discos duros virtuales que agregue más adelante al servidor DPM:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>Agregue los discos duros virtuales creados al servidor DPM de la siguiente manera:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisksEste paso configura un bloque de almacenamiento como el disco o los discos en los que DPM almacena réplicas y puntos de recuperación para los datos protegidos. Este grupo forma parte de la configuración de DPM y es independiente del grupo de Espacios de almacenamiento que se usa para crear los volúmenes de datos descritos en la sección anterior. Para más información sobre bloques de almacenamiento DPM, consulta Configuración de almacenamiento en disco y bloques de almacenamiento.
Configuración del clúster de servidor de archivos de Windows.
La desduplicación requiere un conjunto especial de opciones de configuración para admitir el almacenamiento DPM virtualizado debido a la escala de datos y el tamaño de los archivos individuales. Estas opciones son globales para el clúster o el nodo del clúster. Debe habilitar la desduplicación y configurar individualmente las opciones del clúster en cada nodo del clúster.
Habilitar la desduplicación en el almacenamiento de Windows File Server: instale el rol Desduplicación en todos los nodos del clúster de Windows File Server. Para ello, ejecuta el siguiente comando de PowerShell en cada nodo del clúster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>Ajustar el procesamiento de desduplicación para los archivos de datos de copia de seguridad: ejecuta el siguiente comando de PowerShell para configurar para iniciar la optimización sin retraso y para no optimizar las escrituras parciales de archivos. De forma predeterminada, los trabajos de recolección de basura (GC) se programan cada semana y, cada cuarta semana, el trabajo de GC se ejecuta en modo "GC profundo" para una búsqueda más exhaustiva y que requiere más tiempo de los datos que se deben eliminar. Para la carga de trabajo DPM, este modo de "GC profundo" no da lugar a mejoras apreciativas y reduce la cantidad de tiempo en que la desduplicación puede optimizar los datos. Desactiva este modo profundo.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFFAjustar el rendimiento de las operaciones a gran escala: ejecuta el siguiente script de PowerShell para:
Deshabilitar el procesamiento adicional y la E/S durante la ejecución de la recolección de basura profunda
Reserva memoria adicional para el procesamiento de hash
Habilita la optimización de prioridad para permitir la desfragmentación inmediata de archivos grandes
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1Esta configuración modifica lo siguiente:
HashIndexFullKeyReservationPercent: este valor controla cuánto de la memoria del trabajo de optimización se utiliza para los hashes de fragmentos existentes en comparación con los hashes de fragmentos nuevos. A gran escala, el 70 % da como resultado un mejor rendimiento de optimización que el valor predeterminado del 50 %.
EnablePriorityOptimization: Con archivos que alcanzan casi 1 TB, la fragmentación de un solo archivo puede acumular suficientes fragmentos para llegar al límite por archivo. El procesamiento de optimización consolida estos fragmentos y evita que se alcance este límite. Al establecer esta clave de registro, la desduplicación agrega un proceso adicional para gestionar archivos deduplicados altamente fragmentados con alta prioridad.
Configurar DPM y programación de desduplicación
Las operaciones de copia de seguridad y desduplicación consumen mucha E/S. Si se ejecutan al mismo tiempo, la sobrecarga adicional para cambiar entre las operaciones puede ser costosa. Puede realizar copias de seguridad o desduplicar menos datos diariamente. Configure ventanas de desduplicación y copia de seguridad dedicadas y independientes. Esta configuración ayuda a garantizar que el tráfico de E/S para cada una de estas operaciones se distribuya eficazmente durante la operación diaria del sistema. Las directrices recomendadas para la programación son:
Dividir los días en ventanas no superpuestas de copia de seguridad y desduplicación.
Configura la programación de copia de seguridad personalizada.
Configurar horarios de desduplicación personalizados.
Programar la optimización en la ventana de desduplicación diaria.
Configure las programaciones de desduplicación de fin de semana por separado. Use ese tiempo para la recolección de elementos no utilizados y los trabajos de limpieza.
Configure programaciones de DPM mediante el siguiente comando de PowerShell:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
En esta configuración, DPM realiza una copia de seguridad de máquinas virtuales entre las 10 p. m. y las 6 a. m. La desduplicación está programada para que se realice durante las 16 horas restantes del día. El tiempo de desduplicación real que configure depende del tamaño del volumen. Consulta la sección Dimensionamiento de los volúmenes para desduplicar los datos para obtener más información. Una ventana de desduplicación de 16 horas que empieza a las 6 a. m., después de que finalice la ventana de copia de seguridad, se configuraría como se indica a continuación desde cualquier nodo de clúster individual:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Siempre que modifique la ventana de copia de seguridad, modifique la ventana de desduplicación junto con ella para que no se superpongan. La ventana de desduplicación y copia de seguridad no tiene que cubrir las 24 horas del día. Sin embargo, se recomienda encarecidamente permitir variaciones en el tiempo de procesamiento debido a los cambios diarios esperados en las cargas de trabajo y la renovación de datos.
Implicaciones para el rendimiento de la copia de seguridad
Después de desduplicar un conjunto de archivos, hay un ligero costo de rendimiento al acceder a los archivos. Este costo procede del procesamiento adicional necesario para acceder al formato de archivo utilizado por los archivos desduplicados. En este escenario, los archivos son un conjunto de archivos VHDX, en los que DPM observa un uso continuo durante la ventana de copia de seguridad. El efecto de tener estos archivos desduplicados significa que las operaciones de copia de seguridad y recuperación pueden ser ligeramente más lentas que sin desduplicación. Al igual que con cualquier producto de copia de seguridad, DPM es una carga de trabajo con uso intensivo de escritura, donde las operaciones de lectura son más importantes durante las restauraciones. Las recomendaciones para abordar las implicaciones para el rendimiento de la copia de seguridad debido a la desduplicación son:
Operaciones de lectura y restauración: los efectos de las operaciones de lectura suelen ser insignificantes y no requieren consideraciones especiales, ya que la característica de desduplicación almacena en caché fragmentos desduplicados.
Operaciones de escritura y copia de seguridad: planee un aumento del tiempo de copia de seguridad de 5 a 10% al definir la ventana de copia de seguridad. Este aumento se compara con el tiempo de respaldo esperado al escribir en volúmenes no desduplicados.
Supervisión
Puede supervisar DPM y la desduplicación de datos para asegurarse de que:
Tiene suficiente espacio en disco para almacenar los datos de copia de seguridad.
Los trabajos de copia de seguridad de DPM finalizan normalmente.
La desduplicación está habilitada en los volúmenes de copia de seguridad.
Las programaciones de desduplicación se establecen correctamente.
El procesamiento de desduplicación finaliza normalmente cada día.
La tasa de ahorro de desduplicación coincide con las suposiciones realizadas para la configuración del sistema.
El éxito de la desduplicación depende de las funcionalidades generales del hardware del sistema, incluida la velocidad de procesamiento de CPU, el ancho de banda de E/S y la capacidad de almacenamiento. También depende de la configuración correcta del sistema, la carga media del sistema y la cantidad diaria de datos modificados.
Use la consola central de DPM para supervisar DPM. Para obtener más información, consulte Instalación de la consola central.
Para comprobar el estado de deduplicación, la tasa de ahorro de espacio y el estado del programa, use los siguientes comandos de PowerShell:
Consultar estado:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Obtener ahorros:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Obtenga el estado de la programación mediante el Get-DedupSchedule cmdlet .
Supervisión de eventos
La supervisión del registro de eventos puede ayudarle a comprender los eventos y el estado de desduplicación.
Para ver los eventos de desduplicación, en Explorador de archivos, vaya a Registros de aplicaciones y servicios>Microsoft>Windows>Desduplicación.
Si el valor LastOptimizationResult = 0x00000000 aparece en los
Get-DedupStatus |flresultados de Windows PowerShell, el trabajo de optimización anterior procesó todo el conjunto de datos. Si el valor no aparece, el sistema no pudo completar el procesamiento de desduplicación. Es posible que desee comprobar los valores de configuración, como el tamaño del volumen.
Para obtener ejemplos de cmdlets más detallados, consulta Supervisión e informe de desduplicación de datos.
Supervisión del almacenamiento de copia de seguridad
En este ejemplo de configuración, los volúmenes de 7,2 TB almacenan 10 TB de datos "lógicos" (el tamaño de los datos cuando no se desduplica) en archivos VHDX dinámicos de 10 x 1 TB. A medida que estos archivos acumulan datos de copia de seguridad adicionales, rellenan lentamente el volumen. Si el porcentaje de ahorro resultante de la desduplicación es lo suficientemente alto, todos los 10 archivos alcanzan su tamaño lógico máximo y siguen cabendo en el volumen de 7,2 TB (posiblemente incluso haya espacio adicional para asignar archivos VHDX adicionales para que los servidores DPM los usen). Pero si el ahorro de tamaño de la desduplicación no es suficiente, el espacio en el volumen se agota antes de que los archivos VHDX alcancen su tamaño lógico completo y el volumen esté lleno. Para evitar que los volúmenes se llenan, siga estas recomendaciones:
Sé conservador en los requisitos de tamaño de volumen y permite cierto margen de sobreaprovisionamiento de almacenamiento. Considere un margen de al menos un 10% al planificar el uso del almacenamiento de copia de seguridad para tener en cuenta las variaciones esperadas en los ahorros por desduplicación y la renovación de datos.
Supervisa los volúmenes que se usan en el almacenamiento de la copia de seguridad para garantizar que la utilización del espacio y las tasas de ahorro de desduplicación se encuentran en los niveles esperados.
Si el volumen se llena, se producen los síntomas siguientes:
La máquina virtual DPM entra en un estado crítico para pausa y no puede emitir ningún trabajo de copia de seguridad adicional.
Se produce un error en todos los trabajos de copia de seguridad que usan los archivos VHDX en el volumen completo.
Para recuperarse de esta condición y restaurar el sistema a una operación normal, puede aprovisionar almacenamiento adicional y realizar una migración de almacenamiento de la máquina virtual DPM o su VHDX para liberar espacio:
Detén el servidor DPM que posee los archivos VHDX en la compartición de copia de seguridad completa.
Crea un volumen adicional y un recurso compartido de copia de seguridad con la misma configuración y ajustes que se usan para los recursos compartidos existentes, incluida la configuración de NTFS y la desduplicación.
Migra el almacenamiento de la máquina virtual del servidor DPM y migra al menos un archivo VHDX desde el recurso compartido de copia de seguridad completo al nuevo recurso compartido de copia de seguridad creado en el paso 2.
Ejecuta un trabajo de recolección de basura (GC) de desduplicación de datos en el recurso compartido de copia de seguridad original que estaba lleno. El trabajo de GC debería completarse con éxito y liberar el espacio libre.
Reinicia la máquina virtual del servidor DPM.
Se inicia un trabajo de comprobación de consistencia de DPM durante la próxima ventana de copia de seguridad para todos los orígenes de datos que fallaron anteriormente.
Todos los trabajos de copia de seguridad ahora se realizan correctamente.
Resumen
La combinación de desduplicación y DPM proporciona ahorros de espacio considerables. Esta combinación admite mayores tasas de retención, copias de seguridad más frecuentes y mejor TCO para la implementación de DPM. Las instrucciones y recomendaciones de este artículo le proporcionan las herramientas y los conocimientos para configurar la desduplicación para el almacenamiento DPM y ver las ventajas de su propia implementación.
Preguntas frecuentes
P: Los archivos VHDX de DPM deben tener un tamaño de 1 TB. ¿Este requisito significa que DPM no puede realizar una copia de seguridad de una máquina virtual, un volumen de archivos o una base de datos SQL de tamaño superior a 1 TB?
R: No. DPM agrega varios volúmenes en uno para almacenar copias de seguridad. Por lo tanto, el tamaño de archivo de 1 TB no afecta a los tamaños de origen de datos de los que DPM puede realizar copias de seguridad.
P: Parece que los archivos VHDX de almacenamiento DPM deben implementarse solo en recursos compartidos de archivos SMB remotos. ¿Qué ocurre si se almacenan los archivos VHDX de copia de seguridad en volúmenes habilitados para desdup en el mismo sistema en el que se ejecuta la máquina virtual DPM?
A: Como se explicó anteriormente, DPM, Hyper-V y desduplicación son operaciones intensivas en almacenamiento y recursos de cómputo. Combinar los tres en un único sistema puede dar lugar a operaciones intensivas de E/S y de procesos que dejan sin recursos a Hyper-V y sus máquinas virtuales. Si decide experimentar con la configuración de DPM en una máquina virtual con los volúmenes de almacenamiento de copia de seguridad en la misma máquina, supervise el rendimiento cuidadosamente para asegurarse de que hay suficiente ancho de banda de E/S y capacidad de proceso para mantener las tres operaciones en la misma máquina.
P: Se recomiendan ventanas de desduplicación y copia de seguridad dedicadas e independientes. ¿Por qué no puedo habilitar la desduplicación mientras DPM realiza la copia de seguridad? Necesito realizar una copia de seguridad de mi base de datos SQL cada 15 minutos.
A: La desduplicación y DPM son operaciones intensivas en almacenamiento. Ejecutar ambos al mismo tiempo puede ser ineficaz y provocar hambre de E/S. Para proteger las cargas de trabajo más de una vez al día (por ejemplo, SQL Server cada 15 minutos) y habilitar la desduplicación al mismo tiempo, asegúrese de que hay suficiente ancho de banda de E/S y capacidad de equipo para evitar el colapso de recursos.
P: En función de la configuración descrita, DPM debe ejecutarse en una máquina virtual. ¿Por qué no puedo habilitar la desduplicación en volúmenes de réplica y volúmenes de instantáneas directamente en lugar de en los archivos VHDX?
A: La desduplicación funciona por cada volumen y opera en archivos individuales. Dado que la desduplicación se optimiza en el nivel de archivo, no está diseñada para admitir la tecnología VolSnap que DPM usa para almacenar sus datos de copia de seguridad. Al ejecutar DPM en una máquina virtual, Hyper-V asigna las operaciones de volumen DPM al nivel de archivo VHDX, lo que permite que la desduplicación optimice los datos de copia de seguridad y proporcione mayores ahorros de almacenamiento.
P: La configuración de ejemplo anterior crea solo volúmenes de 7,2 TB. ¿Puedo crear volúmenes más grandes o más pequeños?
A: La desduplicación ejecuta un hilo por volumen. A medida que el tamaño del volumen aumenta, la desduplicación requiere más tiempo para completar su optimización. Por otro lado, con volúmenes pequeños, hay menos datos en los que encontrar fragmentos duplicados, lo que puede dar lugar a un ahorro reducido. Por lo tanto, ajuste el tamaño del volumen en función de la rotación total y las capacidades de hardware del sistema para un ahorro óptimo. Para obtener información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación, consulta Tamaño de volúmenes para desduplicación de datos.