Intel Parallel Studio

¿Qué es Intel Parallel Studio?

Desarrolle código paralelo de alto rendimiento y acelere las cargas de trabajo en la empresa, la nube, la informática de alto rendimiento (HPC) y las aplicaciones de IA.

¿Qué puede ayudarle Intel Parallel Studio?

Codifique nuevos avances en el rendimiento del software

Este conjunto integral de herramientas de desarrollo simplifica la creación y modernización de código con las últimas técnicas en vectorización, subprocesamiento múltiple, paralelización de múltiples nodos y optimización de memoria. Permite a los desarrolladores de software C, C ++, Fortran y Python *:

Cree un código más rápido: aumente el rendimiento de la aplicación que escala en las plataformas Intel® actuales y futuras.
Cree código más rápido: simplifique el proceso de creación de código paralelo.
Obtenga soporte prioritario: conéctese directamente con los ingenieros de Intel para obtener respuestas confidenciales a preguntas técnicas.

Elija la versión adecuada de Intel Parallel Studio

Intel® Parallel Studio XE Composer Edition incluye compiladores C ++ y Fortran líderes del sector, bibliotecas de rendimiento, modelos paralelos basados en estándares y Python optimizado para el rendimiento. Construye código rápido, más rápido.

Intel® Parallel Studio XE Professional Edition incluye una selección completa de compiladores y bibliotecas. Desarrolle sus capacidades con un perfilador de rendimiento, vectorización optimizada, creación de prototipos de subprocesos y herramientas de depuración para memoria y subprocesos.

Intel® Parallel Studio XE Cluster Edition es nuestra suite insignia. Incluye todas las herramientas de las otras versiones, además de una biblioteca MPI, una herramienta de análisis y ajuste MPI y un sistema de diagnóstico de clúster avanzado.

¿Qué hay de nuevo en Intel Parallel Studio?

Modernizar el código de rendimiento, escalabilidad y portabilidad

  • Escriba aplicaciones que escalen con un rendimiento paralelo mejorado en los últimos procesadores Intel® Xeon® e Intel® Core ™ utilizando las instrucciones Intel® Advanced Vector Extensions 512 (Intel® AVX-512).
  • Vectorice y ensarte su código usando OpenMP * para aprovechar el último hardware habilitado para SIMD, incluido Intel AVX-512.
  • Acelere la inferencia de inteligencia artificial con compiladores de Intel, bibliotecas de rendimiento Intel® y herramientas de análisis que admiten Intel® Deep Learning Boost con instrucciones de red neuronal vectorial (VNNI) en procesadores escalables Intel® Xeon® de segunda generación.
  • Desarrolle para grandes memorias de DIMM de hasta 512 GB con persistencia. Identifique, optimice y ajuste las plataformas Intel para la memoria persistente Intel® Optane ™ DC con Intel® VTune ™ Profiler.
  • Utilice perfiles ampliados de grano grueso con recopilación y análisis a nivel de plataforma en Intel VTune Profiler para comprender y optimizar la configuración de la plataforma para las aplicaciones.
  • Realice conocimientos de simulación de caché para vectorización con análisis de línea de techo para L1, L2, L3 y DRAM en Intel® Advisor.
  • El soporte para la nube HPC le ayuda a aprovechar el AWS * Parallel Cluster * y el AWS Elastic Fabric Adapter para comunicaciones de baja latencia y gran ancho de banda para aplicaciones MPI con la Biblioteca Intel® MPI.
  • Manténgase actualizado con los últimos estándares y entornos de desarrollo integrado (IDE):
    – Soporte completo de C ++ 2017 con soporte inicial de C ++ 20
    – Fortran completo 2008 y Fortran 2018 expandido
    – Soporte para Python 3.7
    – OpenMP 4.5 completo y borrador inicial de OpenMP 5.0
    – Integración de Microsoft Visual Studio * 2019
  • Admite un sistema operativo adicional: Amazon Linux 2 *.
¡Seguimos trabajando!

Debido a la pandemia podrás contactarnos en ventas@scientec.com.mx o al teléfono 55 5688-5712, para cualquier información, soporte o precios que requieras.

La entrega de los productos, factura y pago es electrónica.

Todo lo hacemos a distancia.

Conoce el software científico que puede ayudarte en esta pandemia aquí.