domingo, 22 de febrero de 2015

Clonación de Domain Controllers virtualizados – Parte 3


Al final del post anterior, Clonación de Domain Controllers Virtualizados – Parte 2, dijimos que era posible clonar varios DCs usando los archivos generados en una única exportación.

Este método facilita y acelera notablemente la tarea de generación de nuevos DCs virtuales.

El procedimiento es muy sencillo y se reduce a las dos acciones siguientes:
  • Modificar el archivo DCCloneConfig.xml
  • Importar la máquina virtual

Modificación del archivo DCCloneConfig.xml
Para ello debemos montar el VHD de la máquina virtual exportada. En nuestro caso la ruta era C:\ExportDC y la máquina virtual era WINMCT-SVR1

Usando Disk Management o directamente mediante la opción Mount, montamos el VHD correspondiente





















En la pantalla siguiente se ve la unidad F montada y el archivo DCCloneConfig que vamos a modificar

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Editamos el archivo DCCloneConfig que está con la configuración de la última clonación (equipo DC04 con IP 172.16.0.42)













 
 
 
Modificamos el archivo con los nuevos valores. En el ejemplo el nombre del nuevo DC será DC05 y su IP 172.16.0.145













 
 
 
 
A continuación se procede a la importación de la máquina virtual. Se eligió el directorio C:\WINMCT-DC5














 
  
 Importación de la Máquina Virtual
La operación de importación es idéntica a la que hicimos en el post anterior
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Al iniciar la nueva máquina virtual pasarán unos minutos hasta que se complete el proceso de clonación










Una vez iniciado el nuevo DC virtualizado verificamos su nombre y parámetros de red mediante ipconfig /all

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
En la consola de Usuarios y Equipos de Active Directory puede verse la cuenta de equipo del nuevo DC05















Hay que tener en cuenta que cuando clonamos, también se clonan los puntos de control (Checkpoints). Es bueno eliminarlas una vez realizada la clonación

 

Clonación de Domain Controllers virtualizados – Parte 2

En el post Clonación de Domain Controllers virtualizados – Parte 1 describimos el escenario y preparamos el entorno para la clonación.

El objetivo es clonar el Domain Controller virtualizado SVR01 para crear su clon, llamado DC04

Uno de los puntos en contra de la clonación es que el DC originario debe apagarse para realizar la exportación. Por este motivo no podemos elegir como origen de la clonación el único DC disponible en un site (*)
(*) NOTA: si el host Hyper-V es Windows Server 2012 R2 no hace falta apagar la VM para exportarla (con hipervisor Windows 2012 no puede exportarse si está encendida)


Exportación de la VM origen:
Procedemos a exportar la máquina virtual SVR01
Creamos previamente la carpeta C:\ExportDC como destino de los archivos exportados. En el ejemplo la exportación se hizo mediante PowerShell








Importación de la VM para generar el clon:
En el ejemplo usamos la consola de Hyper-V para importar la máquina virtual. En las pantallas siguientes vemos los pasos de la importación

























Es importante seleccionar la opción para generar un nuevo ID de máquina virtual porque así se permitirá usar la VM exportada para posteriores importaciones

 















Se configuró como destino para la nueva VM la ruta C:\WindowsMCT-DC4










  



































Finalizada la importación, vemos en la consola de Hyper-V la máquina virtual clonada que mantiene el mismo nombre que la original WINMCT-SVR1










Cambiamos el nombre de la máquina virtual a WINMCT-DC4









Pasos finales y comprobación:

Luego de iniciar la máquina virtual pasan varios minutos hasta completar el proceso










Una vez que iniciamos la sesión verificamos mediante ipconfig /all el nombre del equipo y los parámetros de red



































Mediante la consola Active Directory Users and Computers confirmamos que existe la cuenta del nuevo domain controller DC04






















En la consola de AD Sites and Services también vemos al DC04 con sus correspondientes conectores de replicación





















En el DC04 abrimos la consola DNS y verificamos la correcta replicación de las zonas y registros.



Al final de este procedimiento logramos instalar un nuevo DC mediante clonación.
Aunque puede parecer que los pasos fueron complejos y que el procedimiento convencional nos hubiera llevado el mismo tiempo y esfuerzo, la clonación nos permitirá generar nuevos Domain Controllers adicionales con mucho menor trabajo administrativo.

Este tema se trata en el post:

Clonación de Domain Controllers virtualizados - Parte 3

Clonación de Domain Controllers virtualizados – Parte 1


El despliegue habitual de un domain controller incluye la instalación del rol de AD DS y la ejecución de las tareas posteriores para promoverlo.
Este procedimiento convencional no es el más apropiado cuando hay que desplegar varios Domain Controllers virtualizados por el tiempo y por la sobrecarga administrativa que insume.
Windows Server 2012 incluye la funcionalidad de clonación de Domain Controllers virtualizados (DC Cloning) que permite un despliegue con menor sobrecarga administrativa y en menor tiempo.
Este proceso puede resumirse en los siguientes pasos básicos: 
  • Generar los archivos de configuración
  • Apagar la VM origen
  • Exportar la VM de origen
  • Importar la nueva VM clonada

 
Requisitos:
  • El DC con el rol de PDC emulator debe ser Windows Server 2012 o superior.
  • El DC virtual que se usa como origen de la clonación debe ser miembro del grupo Cloneable Domain Controllers.
  • Para clonar se necesitan privilegios de Administrador de Dominio

Escenario:
El dominio Windowsmct.com tiene actualmente dos domain controllers, DC01 y SVR01.
Se usará SVR01 como origen de la clonación.

NOTA: es recomendable que el DC origen de la clonación no sea propietario de roles FSMO y tenga el menor número de aplicaciones instaladas (en lo posible debiéramos elegir el DC más estándar y menos ocupado posible). Además no debiera ser el único DC del site.

Pasos Previos a la clonación:
En el contenedor Users encontramos el grupo Cloneable Domain Controllers


Agregamos el DC origen (SVR01) como miembro del grupo Cloneable Domain Controllers










 

 

 

 
 
 
 
 
 
Comportamiento de las Aplicaciones del DC originario:
Al tratarse de una clonación, una de las primeras preguntas que nos hacemos es qué sucede con las aplicaciones del DC de origen al clonar la máquina virtual.
En la ruta %Windir%\System32 se encuentra el archivo DefaultDCCloneAllowList.xml que incluye las aplicaciones que pueden clonarse sin problemas. Este archivo debe dejarse tal como está (no existe ninguna razón para modificarlo)
 

 

 
 
 
 
 
 
 
Para clonar el DC se debe generar un archivo de clonación llamado DCCloneConfig.xml. La presencia de este archivo hace que se reconozca que se trata de una clonación, de lo contrario sería un proceso de copia exacta de máquinas virtuales y no sería útil.
Para crear el archivo de configuración para la clonación se ejecuta el CMDLet:
New-ADDCCloneConfigFile

Importante: No debemos ejecutar este comando antes de haber evaluado las aplicaciones no incluidas en la lista anterior. En nuestro ejemplo lo hacemos para ver el error que se muestra en la pantalla siguiente


Verificar las aplicaciones no evaluadas antes de clonar:
Las aplicaciones que no figuran en DefaultDCCloneAllowList, deben ser evaluadas antes de clonar. Conviene en primer lugar ejecutar el comando
Get-ADDCCloningExcludeApplicationList para obtener el listado de aplicaciones no evaluadas. Entre ellas tenemos DHCP y Telnet Server.


En este punto puede elegirse entre dos soluciones:
  • Antes de clonar desinstalar las aplicaciones que hay en la lista anterior
  • Generar un archivo Custom que incluya estas aplicaciones no evaluadas.
En nuestro caso generamos el archivo mediante el comando:
Get-ADDCCloningExcludeApplicationList –GenerateXML







El archivo de Exclusiones, llamado CustomDCCloneAllowList.xml se crea automáticamente en la ruta de la base de datos de AD (en el ejemplo C:\Windows\NTDS)

Inicio de la clonación:
Ejecutamos el comando New-ADDCCloneConfigFile para generar el archivo de configuración de la clonación. Se puede especificar nombre del equipo destino (en nuestro ejemplo DC04) y los parámetros de red como se ve en la siguiente pantalla.

Editamos el archivo DCCloneConfig.xml para revisar su contenido. Este archivo no debe ser modificado a menos que se utilice para posteriores clonaciones (tema que se tratará en un próximo post).

 

 
 
 
 
 
 
 
 
 
 
El escenario ya está listo para la clonación. El procedimiento completo lo vemos en el siguiente post:

viernes, 20 de febrero de 2015

Solución al "Little Lab" de Auto Deploy












Buenas tardes gente!, aquí les dejo la solución al LAb del viernes pasado....

- Utilicen PowerCli para ejecutar estos comandos:

Add-EsxSoftwareDepot d:\update-from-esxi5.5-5.5_update01.zip

Get-EsxImageProfile | Select name

New-DeployRule -name Rule01 -item ESXi-5.5.0-20130402001-standard -allhosts

New-DeployRule -name Rule02 -item "Cluster-01"

Add-DeployRule -deployrule Rule01

Add-DeployRule -deployrule Rule02

Get-DeployRuleSet



Esto es todo...espero que les sea de utilidad!...nos vemos la próxima!

viernes, 13 de febrero de 2015

Little Lab: Auto Deploy












Qué tal amigos!, hoy, viernes de "Little Labs", les traigo una propuesta para poder hacer el delpoy de servidores ESXi implementando Auto Deploy...

Escenario: su entorno vSphere está creciendo demasiado rápido y tanto la distribución de nuevos servidores ESXi como la actualización de los mismos, le está llevando mucho de su tiempo.

Objetivos: simplificar el proceso de distribuir y actualizar servidores ESXi implementando Auto Deploy, importando la estandard image profile y creando reglas apropiadas.

Requerimientos: habilitar Auto Deploy en el vCenter Server Appliance.  Utilizar PowerCli para:

  • agregar un software repository file llamado update-from-esxi5.5-5.5_update01.zip como un offline software depot.
  • listar los image profiles en el repositorio y verificar que haya uno con el nombre ESXi-5.5.0-20130402001-standard.
  • crear una regla que asigne el profile ESXi-5.5.0-20130402001-standard a todos los hosts ESXi.
  • Crear una regla que asigne todos los hosts a un cluster llamado Cluster-01.
  • Agregar ambas reglas al rule set de trabajo actual.
  • listar las reglas en el rule set de trabajo actual.

Bueno, esto es todo por hoy...el próximo viernes veremos una posible solución...

martes, 10 de febrero de 2015

WHAT'S NEW IN VSPHERE 6.0


Como muchos se habrán enterado, VMware ha realizado el lanzamiento de la versión 6.0 de vSphere, veremos algunas de las tantas novedades que nos presenta la gente de Palo Alto.

VSPHERE Y VCENTER 6.0

Escalabilidad – Configuración de máximos



La Configuración de Máximos ha aumentado en todos los ámbitos para los host vSphere en 6.0, en el que cada uno de ellos ahora puede soportar:

  • 480 CPUs Físicos por hos
  • Hasta 12 TB de Memoria Física
  • 1000 VMs por host
  •  64 Hosts por Cluster


Escalabilidad – Virtual Hardware v11

Este release de vSphere nos presenta la versión 11 de Virtual Hardware.  Algunas de sus características son:

  • 128 vCPUs
  •  4 TB de RAM
  •  Una VM ahora puede tener un máximo de 32 serial ports
  •  Los puertos seriales y los puertos paralelos ahora pueden ser removidos
  •  Controlador xHCI 1.0 compatible con OS X 10.8+ xHCI driver


Local ESXi Account And Password Management Enhancements



En este último release de vSphere 6.0, VMware expandió el soporte de account mangement en los hosts ESXi.

Nuevos comandos ESXCLI:

  • Interface CLI para la administración de cuentas de usuarios y permisos locales en el ESXi
  • El ESXCLI puede ser invocado contra el vCenter en lugar de acceder directamente al host ESXi
  • Previamente, la funcionalidad de la administración de cuentas y permisos para el host ESXi estaba disponible solo a través de la conexión directa al host.


Complejidad del password:

  • Previamente, los clientes tenían que editar manualmente el archivo /etc/pam.d/passwd, ahora esto puede hacerse desde el VIM API OptionManager.update().
  • Las opciones avanzadas pueden también ser accedidas a través de vCenter, por lo que no es necesario hacer una conexión directa al host.
  • PowerCli cmdlet permite setear las opciones avanzadas de configuración del host


VCENTER SERVER 6.0 – PLATFORM SERVICES CONTROLLER



El Platform Services Controller (PSC) incluye servicios comunes que son usados a través de la suite.

  • Ellos incluyen SSO, Licencing y el VMware Certificate Authority (VMCA)
  • El PSC es la primera pieza que es instalada o actualizada.  Cuando se actualiza una instancia de SSO, se convierte en PSC.
  • Hay dos modelos de distribución, embebido y centralizado
  • Embebido significa que el PSC y el vCenter Server son instalados en una sola VM (esta es la solución recomendad para sitios con una sola solución de SSO, tal como un solo vCenter)
  • Centralizado significa que el PSC y el vCenter Server son instalados en diferentes VMs (recomendado para sitios con dos o más soluciones de SSO, tal como múltiples vCenter Servers, vRealize Automation, etc.

El PSC y los servidores vCenter se pueden combinar, lo que significa que se puede implementar PSC Appliance junto con PSC Windows  con vCenter tanto Windows como Appliance.

NETWORK AND SECURITY

Networking en vSphere 6.0 ha recibido algunas mejoras importantes que ha dado lugar a las siguientes capacidades nuevas para vMotion:

·         Cross vSwitch vMotion



Cross vSwitch vMotion permite migrar una VM, sin problemas, a través de diferentes virtual switches.

  • Ya no está restringido por la red que se creó en los vSwitches con el fin de hacer un vMotion de una VM
  •  vMotion trabajará a través de un mix de switches (estandards y distribuidos).  Previamente, solo se podía hacer vMotion de vSS a vSS o dentro de un solo vDS.  Esa limitación ha sido removida.

Las siguientes migraciones con Cross vSwitch vMotion son permitidas:

  •  vSS a vSS
  •  vSS a vDS
  •  vDS a vDS
  •  vDS a vSS no está permitido!!


·         Cross vCenter vMotion



vMotion ahora puede realizar los siguientes cambios simultáneamente:

  • Cambio de host (vMotion) – realizar la migración de VMs a través de hosts.
  • Cambio de storage (Storage vMotion) – realizar la migración de los discos de las VMs a través de datastores.
  • Cambio de red (Cross vSwitch vMotion) – migración de una VM a través de diferentes virtual switches.
  • Cambio de vCenter (Cross vCenter vMotion) – realizar la migración del vCenter que gestiona la VM.


Todos estos tipos de vMotion son sin interrupciones al sistema operativo Guest.  Al igual que con vSwitch vMotion, Cross vCenter vMotion requiere conectividad de red L2 ya que la IP de la VM no será cambiada.  Esta funcionalidad se basa en Enhanced vMotion (Cross Host vMotion, en vSphere 5.5) y, por lo tanto, storage compartido no es requerido.


Long Distance vMotion



Long Distance vMotion es una extensión de Cross vCenter vMotion pensado para entornos donde los servidores vCenter se propagan a través de grandes distancias geográficas y donde la latencia entre los sitios es de 100ms o menos.

Casos de uso:

  • Migración de VMs entre servidores físicos que se propagan a través de largas distancias geográficas sin interrupción de las aplicaciones.
  • Realizar una migración permanente de VMs en otro datacenter.
  • Distribución las VMs a través de sitios para balancear la carga del sistema.


Requerimientos:

  • Los requerimientos para Long Distance vMotion son los mismos que para Cross vCenter vMotion, agregando la latencia máxima de 100ms entre los sitios de origen y destino, teniendo en cuenta también un ancho de banda de 250 Mbps.
  • La red de la VM tendrá que ser una red L2 extendida, ya que la IP del sistema operativo Guest no va a cambiar.  Si el portgroup de destino no está en el mismo dominio L2 que el origen, se perderá la conectividad de red en el sistema operativo Guest.  Esto significa, en algunas topologías, tal como metro o cross-continental, que necesitaremos una tecnología L2 extendida in place.  Las tecnologías L2 extendidas no están especificadas.  Cualquier tecnología que pueda presentar la red L2 a los hosts vSphere va a funcionar, debido a que esto no es de conocimiento para ESX de cómo está configurada la red física.  Algunos ejemplos de tecnologías que funcionan son VXLAN, NSX L2 Gateway Services, o túneles GIF/GRE.
  • No hay definidas distancias máximas que serán soportadas siempre que la red cumpla estos requerimientos.


Network I/O Control V3



Network I/O Control v3 permite a los administradores o proveedores de servicios reservar o garantizar ancho de banda a una vNIC en una máquina virtual o, a un nivel más alto, en un Distributed Port Group.

STORAGE AND AVAILABILITY




VMware Virtual Volumes



VVOLS cambia la arquitectura de storage y la manera con la cual es consumido el espacio.  Cuando uno crea una LUN, esta es creada con una capacidad fija.  Luego, las VMs son asignadas a una determinada LUN, basada en sus necesidades.  Esto puede resultar en un problema cuando una LUN con cierta cantidad de dato se queda sin capacidad, mientras otras LUNs aún tienen espacio de sobra.  El efecto de esto es que típicamente los administradores hagan un sobredimensionamiento de sus sistemas de storage, solo para estar seguros “por las dudas”.
Con VVOLS esto es totalmente diferente.  Cada VM tiene asignada su propia política de storage, y todas las VMs utilizan el storage desde el mismo pool en común.  Los administradores de storage necesitan solo hacer el provision para la capacidad total de todas las VMs, sin preocuparse por las diferentes políticas.  Por otra parte, la política de una VM se puede cambiar, y esto no requiere que sea movida a una diferente LUN.



VVOLS – Storage Container



Un storage container es una construcción lógica para agrupar Virtual Volumes.  Este es seteado por el administrador de storage, y la capacidad del container puede ser definida.  Los container poseen la habilidad para aislar o particionar storage de acuerdo a las necesidades requeridas.

FAULT TOLERANCE



Según mi criterio, este es el gran anuncio!, lo que hace tiempo estábamos esperando!... veamos los beneficios de esta nueva versión:

  • Enhanced virtual disk support – ahora soporta cualquier formato de disco (thin, thick o EZT)
  • Ahora soporta configuración de FT en caliente – ya no es requerido apagar la VM para habilitar FT.
  • Gran aumento de la compatibilidad del host para FT – si podemos hacer vMotion de una VM entre hosts, podremos utilizar FT.

La nueva tecnología utilizada por FT se llama Fast Checkpointing y es básicamente una versión modificada de xvMotion (Cross-vCenter vMotion) que nunca termina y ejecuta muchos más checkpoints (multiple/sec).

Nuevas Capacidades De FT 6.0



DRS es soportado solo para el initial placement de la VM.

Backing Up FT VMs




Las VMs con FT pueden ahora ser respaldadas usando software estándar de backup, al igual que todas las otras VMs (anteriormente las VMs con FT podían siempre ser respaldadas utilizando agentes).  Las VMs son respaldadas usando snapshots a través de VADP.  Los usuarios no pueden tomar snapshots de esas VMs, esto es solo soportado como parte de VADP.

Espero que les haya sido útil esta información, en los próximos post veremos otras funcionalidades de esta nueva versión...