• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi
    • Attacchi informatici: Russia, UE e Asia nel mirino
    • Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory
    • Sicurezza: AI sempre più sfidante
    • Oracle EU Sovereign Cloud conquista le organizzazioni tedesche
    • Progettare il futuro con Red Hat Enterprise Linux 10
    • AI e Partnership pilastri della strategia di SAP
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Società di telecomunicazioni: supportare la GenAI per avere successo

    Società di telecomunicazioni: supportare la GenAI per avere successo

    By Redazione LineaEDP02/04/2024Updated:05/04/20246 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Per diventare fornitori di LLM competitivi, le società di telecomunicazioni devono sfruttare soluzioni di sicurezza affidabili e scalabili

    societa-di-telecomunicazioni

    Nell’articolo che condividiamo di seguito, Alix Leconte, VP for Service Providers (EMEA) di F5, spiega come le società di telecomunicazioni possono giocare un ruolo cruciale nella rivoluzione dell’intelligenza artificiale. Posseggono infrastrutture nazionali consolidate, vantano un’offerta business-to-business già esistente e rappresentano una scelta naturale per diventare fornitori di AI-as-a-service.

    Portare l’AI Generativa a un nuovo livello: come le società di telecomunicazioni possono supportare la rivoluzione

    Negli ultimi 18 mesi, l’AI generativa ha conquistato il mondo. Nuovi servizi, come ChatGPT e DALL-E, sono in grado di creare testi, immagini e codice software in risposta alle richieste degli utenti, espressi nel linguaggio naturale. Questo ha aperto nuove possibilità di produttività, e, secondo una ricerca recente di Bloomberg Intelligence, il mercato dell’AI generativa potrebbe valere fino a 1,3 trilioni di dollari entro il 2032.

    Poiché il valore di questa tecnologia è ormai evidente, si sta assistendo a una crescente spinta alla creazione di versioni specifiche per settori e regioni dei Large Language Models (LLM) che consentono ai computer di generare testi e altri contenuti credibili.

    Un LLM è un modello statistico di linguaggio addestrato su una vastissima mole di dati. Può essere utilizzato per generare e tradurre testi, oltre che per elaborare il linguaggio naturale. Gli LLM sono in genere basati su architetture di deep-learning. Inizio modulo

    In tutto il mondo, gli operatori di telecomunicazioni più all’avanguardia si stanno già attrezzando per assumere un ruolo fondamentale nella fornitura e nella sicurezza di questi LLM specializzati. In particolare, si prevede una forte domanda di soluzioni di GenAI end-to-end da parte di imprese, start-up, università e enti pubblici che non dispongono delle risorse necessarie per creare autonomamente l’infrastruttura informatica richiesta.

    Si tratta di una tendenza molto interessante e, con adeguate misure di sicurezza, le soluzioni LLM-as-a-service potrebbero presto essere utilizzate per sviluppare applicazioni GenAI specifiche per settori cruciali come la sanità, l’istruzione, i trasporti e altri (inclusi i servizi di telecomunicazioni).

    Le sfide

    Quindi, quali sono i passi successivi per far funzionare tutto ciò e quali sono le principali sfide che ci aspettano?

    Dato che devono essere reattivi, affidabili e sempre disponibili, molti LLM saranno probabilmente distribuiti su più cloud ed edge. In effetti, con la latenza appropriata, la GenAI sarà parte integrante delle proposte edge delle telecomunicazioni, poiché gli utenti avranno bisogno di risposte “conversazionali” in tempo reale.

    Per le società di telecomunicazioni che hanno faticato a incrementare i ricavi, la fornitura di infrastrutture edge per supportare sistemi GenAI specializzati potrebbe rappresentare un nuovo importante mercato. Bloomberg Intelligence stima che il mercato delle infrastrutture GenAI-as-a-service (utilizzate per addestrare gli LLM) raggiungerà un valore di 247 miliardi di dollari entro il 2032.

    Tuttavia, coloro che sperano di avere successo con la GenAI devono procedere con cautela. Le architetture distribuite, che possono aumentare la superficie di attacco potenziale, richiedono soluzioni di sicurezza robuste e scalabili per prevenire la perdita di dati e informazioni personali, sia durante la fase di addestramento che durante l’inferenza dell’intelligenza artificiale.

    Dal momento che i malintenzionati utilizzano sempre più spesso tecniche di movimento laterale per infiltrarsi in sistemi interconnessi, è fondamentale che le società di telecomunicazioni mettano in sicurezza proteggano sia le applicazioni che le API utilizzate da terze parti per accedere all’LLM-as-a-service.

    Per aumentare la consapevolezza in questo ambito, la Open Web Application Security Project (OWASP) ha recentemente avviato un nuovo progetto per educare sviluppatori, progettisti, architetti, manager e organizzazioni sui potenziali rischi per la sicurezza durante l’implementazione e la gestione dei degli LLM.

    Una cosa è certa: le società di telecomunicazioni devono mantenere la fiducia dei clienti per diventare attori credibili in questo mercato, poiché i sistemi GenAI dovranno frequentemente elaborare dati personali o sensibili dal punto di vista commerciale. Per questo motivo, molti governi e autorità di regolamentazione desiderano che questi sistemi operino su capacità di calcolo situate all’interno delle loro giurisdizioni. Nel frattempo, anche le imprese sono restie a condividere dati sensibili che potrebbero minacciare la loro proprietà intellettuale e, pertanto, preferiscono utilizzare offerte private di LMM.

    Altri aspetti rilevanti includono il modo in cui i cluster di intelligenza artificiale agiscono come comunità di utenti virtuali, il che richiede data path ad alte prestazioni per accedere alle informazioni contenute negli archivi privati di paesi e aziende.

    Inoltre, l’impatto dell’AI sul traffico e sull’infrastruttura di rete sarà sempre più influenzato dai piani dei paesi e delle aziende per il self-host delle applicazioni di AI. Le preoccupazioni riguardanti le allucinazioni (AI hallucination), il copyright, la sicurezza e l’impatto ambientale dell’intelligenza artificiale spingono molti a cercare maggiore sicurezza e controllo sui dati. Inoltre, saranno necessari nuovi metodi per mitigare la prevista pressione sulle GPU. Tutte queste considerazioni hanno un impatto sul TCO complessivo delle infrastrutture di AI.

    Società di telecomunicazioni: protezione flessibile e scalabile in più ambienti

    Le società di telecomunicazioni possono effettivamente giocare un ruolo cruciale nella rivoluzione dell’intelligenza artificiale. Posseggono infrastrutture nazionali consolidate, vantano un’offerta business-to-business già esistente e rappresentano una scelta naturale per diventare fornitori di AI-as-a-service.

    F5 sta già collaborando con una telco in Europa per supportare la sua nuova proposta GenAI. In questo caso, il nostro cliente sta utilizzando le tecnologie Nvidia DGX Super POD e Nvidia AI Enterprise per sviluppare il primo LLM addestrato nativamente in una lingua locale. L’obiettivo è catturare le sfumature della lingua, così come le specificità della sua grammatica, del contesto e dell’identità culturale.

    Per proteggere la soluzione su diversi siti periferici, la compagnia di telecomunicazioni si affiderà a F5 Distributed Cloud Web Application and API Protection (WAAP), fornito come servizio basato su cloud. Inoltre, sfrutterà i cluster ADC di F5 per eseguire il bilanciamento del carico della nuova piattaforma AI nell’infrastruttura edge.

    È rilevante notare che le soluzioni di F5 possono essere utilizzate sia in cloud pubblico che in data center multi-tenancy, così come internamente e per l’infrastruttura edge.

    In aggiunta, F5 Distributed Cloud WAAP e le soluzioni di sicurezza API associate possono scalare rapidamente al crescere del traffico, riducendo il costo complessivo della fornitura di LLM-as-a-service. F5 fornisce anche la visibilità del flusso di traffico, della latenza e dei tempi di risposta, elementi essenziali per le società di telecomunicazioni e altri fornitori di servizi gestiti per garantire ai clienti aziendali accordi sui livelli di servizio (SLA).

    Un ulteriore modo in cui F5 può essere d’aiuto è gestire il fatto che le attività di inferenza dei LLM e di intelligenza artificiale richiedono notevoli risorse. Questi carichi di lavoro comportano scambi estesi di dati e spesso causano colli di bottiglia a causa della necessità di garantire scambi di dati sicuri su larga scala. Ciò può portare a un utilizzo ridotto di risorse preziose, con conseguente aumento dei costi operativi e ritardi nel conseguimento degli obiettivi desiderati.

    Conclusioni

    Se le società di telecomunicazioni sapranno sfruttare in modo intelligente soluzioni di sicurezza scalabili e robuste, avranno tutte le carte in regola per diventare affidabili fornitori di LLM specifici per settore e nazione. Coloro che riusciranno in questo obiettivo otterranno sicuramente un significativo vantaggio competitivo negli anni a venire.

    societa-di-telecomunicazioni

     

    di Alix Leconte, VP for Service Providers (EMEA) di F5

    Alix Leconte F5 intelligenza artificiale generativa (GenAI) LLM
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi

    21/05/2025

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.