Az elmúlt években a mesterséges intelligenciát főként chatfelületeken használtuk, ahol válaszol a kérdéseinkre. A SUSE előrejelzései szerint azonban a következő időszakban az AI szerepe alapvetően átalakul, és különálló eszköz helyett az informatikai rendszerek működésének alapvető részévé válik.
Az intelligens rendszerek így már nem pusztán támogatják az IT-csapatokat, hanem aktívan részt vesznek a felügyeletben és az optimalizálásban, ami gyorsabb hibaelhárítást, hatékonyabb erőforrás-kihasználást, átláthatóbb költségeket és megbízhatóbb működést eredményezhet. Az áttöréshez a vállalati környezetekhez tervezett olyan nyílt platformokra van szükség, amelyek képesek összehangoltan kezelni az AI-modelleket és az infrastruktúrát.
„Az AI ma már nem kísérletezésről szól, hanem a mérhető teljesítménybeli eredmények eléréséről. Ha nem változtatjuk meg a vállalat teljes működését, akkor valójában nem újítunk meg semmit, és nem tudjuk kiaknázni az AI-ban rejlő értéket.”
-mondta Julie Sweet, az Accenture vezérigazgatója.
A technológiai vállalatok és kutatóintézetek az elmúlt időszakban arra törekedtek, hogy egyre nagyobb és összetettebb AI-modelleket fejlesszenek. Ezek ugyanis több adatot és összefüggést képesek kezelni, ezért pontosabb és árnyaltabb válaszokat adnak. Idővel azonban kiderült, hogy a méret önmagában nem garancia a hatékony működésre. A fókusz 2025-ben arra helyeződött át, hogy az AI működtetését miként lehet a puszta válaszadás helyett a környezet értelmezése és az arra adott következetes reakció felé elvinni.
Ennek a szemléletváltásnak a részeként terjedt el a RAG (Retrieval-Augmented Generation) megközelítés, amely lehetővé teszi, hogy az AI egy vállalat saját dokumentumaiból és adatforrásaiból is merítsen, így pontosabb válaszokat adjon. Megjelent az egységes MCP (Model Context Protocol) szabvány is, amely egyszerűbbé teszi az AI-rendszerek és adatforrások összekapcsolását. Ezzel párhuzamosan az is világossá vált a tavalyi év során, hogy a kísérleti megoldásokból csak stabil és jól szabályozott platformokra építve lehet vállalati szintű szolgáltatásokat biztosítani. Ezek közé tartozik például a SUSE AI is.
A 2025-ben kirajzolódó szemléletváltás nem áll meg az alapok megerősítésénél. A SUSE szakértői szerint 2026-ban ezek a folyamatok tovább mélyülnek, és az alábbi 5 irány válik meghatározóvá az AI-infrastruktúra fejlődésében:
Az AI az infrastruktúra részévé válik
Az autonóm AI-ügynökök egyre inkább beépülnek az infrastruktúra működésébe. A Kubernetes-alapú rendszerekben idén már nemcsak mikroszolgáltatások futnak, hanem önálló döntési logikával rendelkező AI-komponensek is. Ezek az ügynökök saját jogosultságokkal és azonosítható identitással rendelkeznek, így képesek ellenőrizni a naplókat, felismerni a problémákat és javítási javaslatot készíteni. Az üzemeltetési csapat szerepe átalakul: a kézi beavatkozás helyett az AI-ügynökök felügyelete és irányítása kerül előtérbe.
Az adatok a vállalat ellenőrzése alatt maradnak
Egyre fontosabb a digitális szuverenitás, vagyis az, hogy az adatok a vállalat ellenőrzése alatt maradjanak akkor is, amikor az AI dolgozik velük. Sok esetben ezért az AI-megoldásokat helyben, saját infrastruktúrán futtatják. Ebben az esetben kiemelt jelentőségű a kontroll és a megfelelőség biztosítása, amiben hatékony segítséget nyújtanak az olyan nyílt, Rancher-alapú platformok, mint a SUSE AI. Felértékelődnek továbbá a kisebb nyelvi modellek is, amelyek kevesebb erőforrást igényelnek, jól használhatók bizonyos konkrét üzleti feladatokhoz, és kiszámíthatóbb működést tesznek lehetővé.
GPU-tudatos erőforrás-kezelés
A hagyományos rendszerek az alkalmazások futtatását elsősorban az általános erőforrás-kihasználás alapján szervezik. Az AI-feladatok azonban gyakran igényelnek speciális hardvert, például GPU-t. Ezek a grafikus feldolgozóegységek olyan számítási eszközök, amelyek különösen hatékonyak a nagy mennyiségű párhuzamos művelet végrehajtásában, ezért kulcsszerepet játszanak az AI-modellek futtatásában. A jövő rendszerei már azt is figyelembe veszik, hogy egy adott feladat mennyi GPU- és egyéb erőforrást igényel, és ennek megfelelően optimalizálják az elosztást. Ez csökkenti a pazarlást és javítja a rendszer megbízhatóságát.
Modellek és a konténerek egy rendszerben kezelve
Korábban az AI-modellek kezelése jellemzően elkülönült az alkalmazások és a konténerek üzemeltetésétől. Ma már azonban a modellek validálása és élesítése egyre inkább részévé válik ugyanannak az üzemeltetési környezetnek, amelyben a konténerek és alkalmazások működnek. Az egységes technológiai stack átláthatóbb működést és szabályozottabb életciklus-kezelést tesz lehetővé.
Kontrollált költségek és beépített FinOps
Az AI-megoldások költségigénye jelentős lehet, ezért a pénzügyi kontroll beépül az üzemeltetési folyamatokba. Az egyre szélesebb körben alkalmazott FinOps-megközelítés célja, hogy a költségek előre láthatók és kezelhetők legyenek, és egy túlzottan nagy erőforrásigényű modell élesítése még időben megállítható legyen.
Ezek az újonnan kirajzolódó trendek olyan platformokat igényelnek, amelyek egyszerre biztosítják a kontrollt, a skálázhatóságot és a költségek átláthatóságát. A SUSE AI hatékony támogatást nyújt ebben a vállalatoknak azzal, hogy Rancher-alapú megközelítésre építve egységes keretbe szervezi az AI-szolgáltatásokat Kubernetes-környezetekben, támogatja a GPU-erőforrások hatékony kihasználását, és segíti a pénzügyi kontrollt.
Hangolódj rá! További friss híreket talál az 1music.hu főoldalán! Kövesse a technológiai híreket és csatlakozzon hozzánk a Facebookon is!






























