W tym tygodniu Securonix przedstawił Sam, analityka AI SOC, oraz Agentic Mesh we współpracy z Amazon Web Services. Nagłówek to nie kolejna funkcja AI. To przejście na model AI oparty na produktywności.
Czy kiedykolwiek obserwowałeś, jak Twój zespół SOC tonie w alertach, podczas gdy zarząd pyta o „jasny ROI AI"?
Wyobraź sobie to.
Jest 8:45 rano. CISO dołącza do wstępnego briefingu zarządu. W nocy przekroczono 40 000 alertów. Dwóch analityków zgłosiło chorobę. Regulator zażądał dowodów zarządzania AI. Dział finansowy chce uzasadnienia rosnących wydatków na SIEM.
Zespół korzysta z AI. Ale nie może udowodnić, co faktycznie dostarczył.
To jest luka, którą Securonix celuje swoim najnowszym wprowadzeniem we współpracy z Amazon Web Services. Firma przedstawiła Sam, analityka AI SOC, oraz Securonix Agentic Mesh – wraz z modelem AI opartym na produktywności dla operacji bezpieczeństwa.
Dla liderów CX i EX to nie tylko wiadomość o cyberbezpieczeństwie. To plan dla zarządzanego AI na dużą skalę.
Model AI oparty na produktywności mierzy AI według wykonanej pracy, a nie według użycia lub zużytych danych.
Większość korporacyjnych cen AI śledzi tokeny, przechowywanie lub funkcje. Ten model nagradza konsumpcję. Rzadko udowadnia wyniki.
Securonix odwraca tę logikę.
Sam jest licencjonowany na podstawie zweryfikowanej pracy równoważnej analitykowi wykonanej przez AI. Produktywność jest śledzona przejrzyście. Liderzy mogą kwantyfikować zaoszczędzone godziny i uzyskany przepust.
Dla liderów CX i EX to przekształca wartość AI:
Ta zmiana odzwierciedla to, z czym mierzą się liderzy CX z AI podróży i copilotami. Zarząd nie chce statystyk użycia chatbota. Chce wskaźników odchylenia, skrócenia czasu rozwiązywania i poprawy kosztów obsługi.
Bezpieczeństwo teraz mówi tym samym językiem.
Sam to zarządzany, zawsze aktywny cyfrowy członek zespołu SOC, który automatyzuje pracę Tier 1 i Tier 2 wewnątrz Unified Defense SIEM.
Sam wykonuje:
Działa natywnie wewnątrz platformy Securonix. Analitycy pozostają w kontroli poprzez nadzór człowieka w pętli.
Wiele copilotów AI pomaga. Niewiele działa jako ustrukturyzowane systemy pracy. Sam orkiestruje wyspecjalizowanych agentów AI w krokach śledztwa. Prezentuje podsumowania w prostym języku, które analitycy mogą zweryfikować lub eskalować.
Rezultat: AI wzmacnia osąd. Nie zastępuje go.
Ponieważ większość wdrożeń AI skaluje się szybciej niż ramy kontroli.
Liderzy bezpieczeństwa stoją w obliczu trzech napięć:
Zarządy zadają teraz trudniejsze pytania:
Nieustrukturyzowane AI nie może na nie odpowiedzieć.
Tutaj wchodzi Securonix Agentic Mesh.
Agentic Mesh to zarządzana warstwa orkiestracji koordynująca wyspecjalizowanych agentów AI w zakresie wykrywania, śledztwa, reagowania i raportowania.
W przeciwieństwie do monolitycznych asystentów, Agentic Mesh funkcjonuje jako system pracy.
On:
Zbudowany przy użyciu Amazon Bedrock AgentCore, działa bezpiecznie w środowiskach klientów. To zapewnia izolację i odporność na poziomie korporacyjnym.
Copiloty odpowiadają na pytania.
Systemy agentowe wykonują zarządzane przepływy pracy.
To rozróżnienie zmienia dojrzałość korporacyjnego AI.
Liderzy bezpieczeństwa coraz częściej działają pod kontrolą zarządu. AI musi udowodnić zaufanie, a nie je obiecywać.
Według Sameera Ratolikara, CISO w HDFC Bank:
Simon Hunt, Chief Product Officer w Securonix, jasno określa wyzwanie:
Dla rozmów z zarządem, AI oparty na produktywności umożliwia:
DPM Flex kieruje telemetrię na podstawie wartości analitycznej, a nie surowego wolumenu, aby kontrolować koszty SIEM.
Produktywność AI załamuje się, jeśli koszty danych rosną spiralnie.
Data Pipeline Manager z Flex Consumption (DPM Flex) wprowadza ekonomię danych opartą na wynikach. Zamiast pozyskiwać wszystko, priorytetyzuje telemetrię o wysokiej wartości.
Dla analogii CX:
Zarządzanie kosztami jest częścią zarządzania AI.
1. Mierz AI według wykonanej pracy.
Metryki adopcji znaczą niewiele bez metryk wyniku.
2. Osadź zarządzanie wewnątrz systemu.
Retroaktywna zgodność jest krucha.
3. Chroń nadzór ludzki.
AI skaluje się najlepiej, gdy wzmacnia osąd.
4. Dopasuj AI do narracji finansowych.
Zarządy zatwierdzają wyniki, nie eksperymentowanie.
5. Kontroluj ekonomię danych wcześnie.
Skalowanie AI bez dyscypliny kosztów tworzy sprzeciw.
Te pułapki tworzą fragmentację. Podważają zaufanie kadry kierowniczej.
CXQuest proponuje model PRODUCT dla skalowania korporacyjnego AI:
P – Zdefiniowane jednostki produktywności
Zdefiniuj mierzalne ekwiwalenty pracy.
R – Osadzone zabezpieczenia ryzyka
Egzekwuj politykę wewnątrz przepływów pracy.
O – Utrzymany nadzór
Utrzymuj ludzi w kontroli eskalacji.
D – Zarządzana ekonomia danych
Dopasuj pozyskiwanie do wartości analitycznej.
U – Jasne granice przypadków użycia
Zacznij od zdefiniowanej pracy o dużym wolumenie.
C – Kontekst współdzielony między agentami
Unikaj odizolowanych asystentów AI.
T – Przejrzyste raportowanie dla kierownictwa
Przetłumacz wynik na język finansowy.
Securonix operacjonalizuje wiele z tych zasad wewnątrz operacji bezpieczeństwa. Zespoły CX mogą zaadaptować tę samą strukturę.
Wypalenie analityków odzwierciedla zmęczenie call center.
Powtarzalna praca segregacji napędza rotację.
Brak widoczności wpływu zmniejsza zaangażowanie.
Absorbując szum Tier 1 i Tier 2, Sam pozwala analitykom skupić się na bardziej ryzykownych decyzjach osądu.
AI powinno usuwać harówkę, nie autonomię.
Bezpieczeństwo często pionieruje ramy zarządzania, zanim CX je przyjmie.
Ruch w kierunku agentowej orkiestracji AI sugeruje, że następna faza korporacyjnego AI skupi się na:
Zarządy coraz częściej będą pytać:
Ile pracy wykonał AI?
Czy był kontrolowany?
Czy możemy go bronić?
Ten model odpowiada bezpośrednio na te pytania.
Wiąże koszt z zweryfikowaną wykonaną pracą, a nie z użyciem danych lub funkcjami.
Odnosi się do systemów AI, które koordynują wyspecjalizowanych agentów do wykonywania ustrukturyzowanych przepływów pracy.
Analitycy przeglądają, walidują lub cofają działania wygenerowane przez AI przed wykonaniem.
Awarie bezpieczeństwa niosą ryzyko regulacyjne i finansowe. Decyzje AI muszą być wyjaśnialne.
Tak. Każdy przepływ pracy o dużym wolumenie, oparty na zasadach, może przyjąć pomiar AI oparty na produktywności.
Sam, analityk AI SOC, Agentic Mesh i DPM Flex są dostępne globalnie dla klientów Securonix.
Głębsza zmiana jest jasna.
AI musi wykonywać prawdziwą pracę.
Musi być zarządzane przez projekt.
A jego wartość musi się obronić w sali zarządu.
Post Model AI oparty na produktywności: jak Securonix na nowo definiuje zarządzane AI dla wyników SOC pojawił się najpierw na CX Quest.
