DIHGIGAL dispone, entre otras, de las siguientes infraestructuras de ensayo y experimentación:
- Laboratorio y prototipado de Sistemas UAS: cámaras FLIR, Multiespectral, Visible, Gimbal, Cámara estabilizada, varios modelos de UAVs (ala fija y rotatoria), cámara aislamiento de ruido para pruebas.
- Campo de Vuelo ANCORA para ensayo de Sistemas UAS: oficina/hangar con herramientas y almacén, helipad 15x15m, perímetro de seguridad de 2.500 m2, suministros electricidad, agua, internet (F.O.), estación meteo, video vigilancia y comunicaciones radio, ADS-B, SDR, geolocalización y geoposicionamiento GPS con soporte RTK.
- Laboratorio de sensorización y prototipado microelectrónico: estaciones soldadura, hornos precisión, estaciones de verificación (osciloscopio, analizador lógico, fuentes multímetros precisión, etc.), pick&place para ubicación de componentes SMD con microscopio, impresión 3D, mecanizado de precisión, CNC, SW de diseño (SolidWorks, Altium).
- 4 Nodos Master/1 Nodo Edge/4 Nodos Worker.
- Enlace X-Ethernet de fibra óptica de a 10 GB simétricos conectado directamente con el Carrier de internet complementado con un enlace de fibra de buckup de 5GB simétricos.
- Herramientas de prototipado y fabricación 3D empleadas en vehículos no tripulados aéreos y marítimos.
- Centro de procesado de datos e infraestructura de comunicación y Big Data, incluyendo procesado de imágenes y aprendizaje autónomo, para drones.
- Laboratorio de Inteligencia Artificial.
- 5 laboratorios de demostración.
- Supercomputador Finisterrae III (Bull ATOS bullx distribuido en 13 racks o armarios y que cuenta con 354 nodos de computación, 22.656 cores Intel Xeon Ice Lake 8352Y, 128 GPUs Nvidia A100 y 16 Nvidia T4, 118 TB de memoria y 5.000 TB de almacenamiento de altas prestaciones Lustre. Todos los nodos están interconectados mediante una red de baja latencia Mellanox Infiniband HDR. La capacidad de cómputo pico del equipo es de 4 PetaFlops).
- Comunicaciones telemáticas avanzadas (RECETGA, enlaces de fibra oscura propios y enlaces de caudal de operadoras que interconectan los distintos centros adheridos).
- Sistemas de almacenamiento en línea que suman más de 26 Petabytes (BigData 816 TB, Scratch 370TB, Parallel Scratch 1000 TB, Home + Permanent disk storage 4000 TB, Tape 20000).
- Infraestructura específica para Big Data compuesta por un cluster dedicado de 38 nodos (4 nodos maestro y 34 nodos esclavo). Con una capacidad bruta de 816 TB y una capacidad de E/S agregada de más de 30 GB/s y dispone de una conexión 10 GbE entre todos los nodos del cluster.
- Infraestructura de computación Cloud de más de 2.000 núcleos de proceso (EOSC-Hub, PRACE-5IP, PRACE-6IP, EGI, EGEEs, etc.).