Optimerat, standardbaserat stöd för kraftfulla nya arkitekturer
De senaste verktygen för oneAPI och AI 2023 fortsätter att ge utvecklare prestanda och produktivitet för flera arkitekturer och ger optimerat stöd för Intels kommande portfölj av CPU- och GPU-arkitekturer och avancerade funktioner:
Intel Xeon Processor Max Series med hög bandbredd i minnet
Intel Data Center GPU:er, inklusive Flex-serien med hårdvaru-AV1-kodning och Max-serien (tidigare med kodnamnet Ponte Vecchio) med datatypflexibilitet, Intel Xe Matrix Extensions (Intel XMX), vektormotor, XE-Link och andra funktioner.
Existing Intel CPUs, GPUs, and FPGAs
Verktygen ger prestanda- och produktivitetsförbättringar och ger även stöd för nya Codeplay-plugins för NVIDIA och AMD som gör det enklare än någonsin för utvecklare att skriva SYCL-kod för GPU-arkitekturer som inte är från Intel. Dessa standardbaserade verktyg ger valmöjligheter när det gäller hårdvara och underlättar utvecklingen av högpresterande program som körs på system med flera arkitekturer.
What’s new in the 2023 oneAPI and AI tools?
Kompilatorer och SYCL-stöd
Intel oneAPI DPC++/C++ Compiler improves CPU and GPU offload performance and broadens SYCL language support for improved code portability and productivity.
Intel oneAPI DPC++ Library (oneDPL) expands support of the C++ standard library in SYCL kernels with additional heap and sorting algorithms and adds the ability to use OpenMP for thread-level parallelism.
Intel DPC++ Compatibility Tool (based on the open source SYCLomatic project) improves the migration of CUDA library APIs, including those for runtime and drivers, cuBLAS, and cuDNN.
Intel Fortran Compiler implements coarrays, eliminating the need for external APIs such as MPI or OpenMP, expands OpenMP 5.x offloading features, adds DO CONCURRENT GPU offload, and improves optimisations for source-level debugging.
Performance libraries
Intel oneAPI Math Kernel Library increases CUDA library function API compatibility coverage for BLAS and FFT; for Sapphire Rapids, leverages Intel XMX to optimize matrix multiply computations for TF32, FP16, BF16, and INT8 data types; and provides interfaces for SYCL and C/Fortran OpenMP offload programming.
Intel oneAPI Threading Building Blocks improve support and use of the latest C++ standard for parallel sort, offers an improved synchronization mechanism to reduce contention when multiple task arena calls are used concurrently, and add support for Microsoft Visual Studio 2022 and Windows Server 2022.
Intel oneAPI Video Processing Library supports the industry’s only hardware AV1 codec in the Intel Data Center GPU Flex Series and Intel Arc(tm) processors; expands OS support for RHEL9, CentOS, Stream 9, SLES15Sp4, and Rocky 9 Linux; and adds parallel encoding feature to sample multi transcode.
Analys och felsökning
gör det möjligt att identifiera MPI-balansproblem med hjälp av funktionen Snapshot för tillämpningsprestanda, ger insyn i Xe Link-trafiken över kortgränserna för användning, bandbreddskonsumtion och andra problem, och ger stöd för 4:e generationens Intel Xeon Scalable-processorer (Sapphire Rapids), Max-serien (Ponte Vecchio) och 13:e generationens Intel Core-processorer.
lägger till automatiserad roofline-analys för Intel Data Center GPU MAX Series för att identifiera och prioritera flaskhalsar i minnet, cacheminnet eller beräkningen och förstå orsakerna till dem och ger användbara rekommendationer för att optimera kostnaderna för återanvändning av dataöverföring av CPU-till-GPU-avlastning.
AI och analys
Intel AI Analytics Toolkit can now be run natively on Windows with full parity to Linux except for distributed training (GPU support is coming in Q1 2023).
Intel oneAPI Deep Neural Network Library further supports the delivery of superior CNN performance by enabling advanced features in 4th Gen Intel Xeon Scalable Processors including Intel AMX, AVX-512, VNNI, and bfloat16.
Intel Distribution of Modin integrates with new heterogeneous data kernels (HDK) solution in the back end, enabling AI solution scale from low-compute resources to large- or distributed-computed resources.
Beta additions for Intel Distribution for Python include the compute-follows-data model extension to GPU, data exchange between libraries and frameworks, and data-parallel extensions for NumPy and Numba packages.
Rendering och visuell databehandling
Intel oneAPI Rendering Toolkit includes the Intel Implicit SPMD Program Compiler runtime library for fast SIMD performance on CPUs.
Intel Open Volume Kernel Library increases memory-layout efficiency for VDB volumes and adds an AVX-512 8-wide CPU device mode for increased workload performance.
Intel OSPRay and Intel OSPRay Studio add features for multi-segment deformation motion blur for mesh geometry, primitive, and objects; face-varying attributes for mesh and subdivision geometry; new light capabilities such as photometric light types; and instance ID buffers to create segmentation images for AI training.
Varför ska du använda oneAPI?
Med 48 % av utvecklarna som siktar på heterogena system som använder mer än en typ av processor* krävs effektivare multiarkitekturprogrammering för att hantera den ökande omfattningen och skalan på verkliga arbetsbelastningar.
Genom att använda oneAPI:s öppna, enhetliga programmeringsmodell tillsammans med Intels standardbaserade multiarkitekturverktyg får du valfrihet när det gäller maskinvara, prestanda, produktivitet och kodportabilitet för CPU:er och acceleratorer. Kod som skrivs för proprietära programmeringsmodeller, som CUDA, saknar portabilitet till annan hårdvara, vilket skapar en siload utvecklingspraxis som låser in organisationer i ett slutet ekosystem.
*Evans Data Global Development Survey Report 22.1, juni 2022
Köp Intel oneAPI 2023 Toolkits med prioriterad support
Alfasoft är en Intel Software Elite Reseller. Vi kan hjälpa dig med råd och rabatter för Intel oneAPI-licensiering. Köp Intel oneAPI 2023 Toolkits med Priority Support för att få tillgång till privat, dedikerad Intel-teknikerstöd, tillgång till en tidigare version och många andra fördelar.
For questions, please get in touch with Alfasoft via email or call us.