Ara

McKinsey: Veri canavarını evcilleştirerek AI etkisini hızlandırmanın yolları

Yapay zeka dağıtmak isteyen devlet kurumları, veri farkındalığı, kullanılabilirliği ve kalitesinde engellerle karşılaşıyor

Yapay zeka dağıtmak isteyen devlet kurumları, veri farkındalığı, kullanılabilirliği ve kalitesinde engellerle karşılaşıyor. Beş aşamalı, göreve dayalı bir veri stratejisi, bu zorlukların üstesinden gelmeye yardımcı olabilir.


Yapay zeka (AI), kamu sektörü kurumlarının seçmenlerine hizmet etme, en can sıkıcı sorunların üstesinden gelme ve bütçelerinden en iyi şekilde yararlanma şeklini önemli ölçüde geliştirme gücüne sahiptir. Birkaç yakınsayan faktör, hükümetleri AI'nın potansiyelini benimseme konusunda baskı yapıyor. Vatandaşlar, dijital bankacılık, sanal asistanlar ve akıllı e-ticaret yoluyla yapay zekanın gücüne daha aşina hale geldikçe, hükümetlerinden daha iyi sonuçlar talep ediyorlar. Benzer şekilde, kamu görevlileri iş başında etkinliği artırmak için özel sektör benzeri çözümler için baskı yapıyorlar. Aynı zamanda, AI teknolojisi hızla olgunlaşıyor ve birçok teklife dahil edilerek tüm kuruluşlar için giderek daha erişilebilir hale geliyor.


Dünyanın dört bir yanındaki çoğu devlet kurumu, başarılı yapay zeka programlarının tüm yapı taşlarını (net vizyon ve strateji, bütçe, yüksek kaliteli mevcut veriler ve yetenek) henüz yerinde değil. Yapay zeka stratejisi formüle edilse, bütçe güvence altına alınsa ve yetenek çekilse bile, veriler önemli bir engel olmaya devam ediyor. Hükümetler için, bir kuruluşun tüm verilerini "yapay zekaya hazır hale getirmek" zor, pahalı ve zaman alıcıdır (bkz. Kenar çubuğu, "Yapay zeka için hazır veriler") ve yapay zekanın etkisini mevcut silolardaki pilotlar ve projelerle sınırlandırır.


Hükümetler, daha geniş sonuçlar elde etmek için pilotları ve kavram kanıtlarını nasıl geçebilir? Yapay zeka harcamalarının getirisini artırmak için, önde gelen kuruluşlar kullanım senaryolarına öncelik veriyor ve yalnızca yapay zeka ile bir etki yaratmak için gerekli olan verileri iyileştirmeye odaklanmak için açıklıklarını daraltıyor. Beş aşamalı, görev odaklı bir süreç, verilerin tüm AI gereksinimlerini karşılamasını ve yatırılan her doların somut iyileştirmeler oluşturmasını sağlayabilir.


Veri labirentinde gezinme


Hükümetler yapay zekanın gücünden yararlanmaya çalışırken, yapay zeka programlarının yanıtlaması gerekebilecek ilk sorulardan biri analitik yeterlilikle ilgilidir: Veriler var mı ve belirli iş gereksinimlerini karşılamak için yeterli kalitede mi? Genel olarak bakıldığında, kamu sektörü özel sektör kuruluşlarından daha fazla veriye sahiptir, ancak bunlar genellikle kullanılamaz ve tutarsız formatlardadır. Ortalama olarak, bir kuruluşun verilerinin yalnızca yüzde 3'ü analitik için gereken kalite standartlarını karşılar.


Araçların, altyapının veya yeteneğin aksine, bir ajansın benzersiz kullanım durumları ve görevin ısmarlama talep etmesi nedeniyle yapay zekaya hazır verilerin eksiksiz bir seti genellikle satın alınamaz. veri girişleri.


En güçlü AI çözümleri, zenginleştirme için genellikle bileşenler, programlar ve hizmetler hakkında dahili verilerin yanı sıra diğer kurumlardan ve üçüncü taraflardan alınan harici verilerden oluşan bir kokteyl gerektirir. Çekirdek - mevcut şirket içi ajans verileri - genellikle onu AI yaklaşımlarıyla uyumsuz hale getiren bir formatta ve kalitede olur. Bir Socrata anketi bu zorlukları vurguladı.

  • Geliştiricilerin yalnızca yüzde 45'i hükümet verilerinin temiz ve doğru olduğunu kabul etti; aynı yüzde, çalışmaları için kullanılabilir bir formatta olduğunu kabul etti

  • Yüzde 35'ten azı bunun iyi belgelendiğini düşünüyor

Ek olarak, ajanslar arasında veri paylaşımı genellikle hükümetler arası bir anlaşma (IGA) gerektirir ve bu anlaşmanın güvence altına alınması en istekli karşı taraflarla bile yıllar alabilir. Tek bir ulusal ajans içinde politika kısıtlamaları, imzalanmış veri paylaşım anlaşmaları ve birden çok güvenlik standardına bağlılığı gerektirir. Devlet kurumları, tutarsız gizlilik, mahremiyet gereksinimleri ve veri paylaşımı için yasal çerçeveler gibi benzer sorunlarla karşı karşıyadır. Sonuç, birbiriyle çelişen mutabakat muhtıraları ve IGA'lardan oluşan bir karışıklık.


Verileri bulmak ve sahipliğini belirlemek de zorluklar yaratabilir. Birçok kuruluşta veriler yıllardır kontrolsüz bir şekilde birikmiştir. Ajansların verilerin nerede bulunduğunu, onlara kimin sahip olduğunu ve nereden geldiklerini bilmemesi alışılmadık bir durum değildir. Sonuç olarak, yapay zeka ile ilgili küçük verilere herhangi bir ofis veya kuruluştaki "sorun sahibi" tarafından erişilebilir. Yapay zeka yetenekleri hakkında bir McKinsey Global Anketi'ne göre, ankete katılanların yalnızca yüzde 8'i, yapay zeka ile ilgili verilerine kuruluş genelindeki sistemler tarafından erişilebildiğini söyledi. Veri kalitesi sorunları, hükümetlerin çok sayıda farklı sisteme sahip olması gerçeğiyle birleşiyor, bunlardan bazıları eski, bu nedenle verileri toplamak son derece zor olabilir. Hem eyalet hem de federal kurumlar eskiyen altyapıyla boğuşuyor: Bazı durumlarda, tüm donanım yığını, veri depolama ve uygulamalar, kullanım ömrü sona erdikten onlarca yıl sonra hala kullanımdadır. Ve yıllık bütçe döngüleri, uzun vadeli düzeltmelerin uygulanmasını zorlaştırır.


Zorluğun ölçeği, hükümet yetkililerinin veri yönetimine daha yavaş ve daha kapsamlı bir yaklaşım benimsemesine yol açabilir. Verilerin yapay zeka için öneminin farkına varan ajanslar, yüzlerce hatta binlerce eski sistem üzerinde yapay zeka için hazır bir veri havuzu oluşturmak amacıyla genellikle ilk çabalarını verileri entegre etmeye ve temizlemeye odaklıyor. Daha etkili bir yaklaşım, cerrahi düzeltmeler yoluyla veri kalitesini ve temeldeki sistemleri iyileştirmeye odaklanır.


Tüm bu faktörler, veri yapay zekasının hazırlanmasını pahalı ve zaman alıcı hale getirir; girişim aynı zamanda kamu sektöründe her zaman bulunmayan yetenekleri de talep etmektedir. Ayrıca, mevcut vatandaş ihtiyaçları ile yapay zeka destekli çözümlerin etkisi arasına yıllarca süren BT projeleri ve veri temizliği koyar. Etkili analitik için gereken kayıt sayısı yüzler ile milyonlar arasında değişebilir.


Yapay zeka için hazır verilere beş adım

Kamu sektörü ajanslarının yapay zeka yolculuğuna başlamasının en iyi yolu, kaynakları en yüksek etkiye sahip uygun kullanım senaryolarına odaklayan ve yapay zekaya hazır hale getirilmesi gereken veri kümelerinin sayısını doğal olarak daraltan görev tabanlı bir veri stratejisi tanımlamaktır. Diğer bir deyişle, hükümetler, mükemmellik üzerindeki etkiyi vurgulayarak yapay zeka çabalarını sıklıkla hızlandırabilirler.


Buna ek olarak, kullanım örneklerini önceliklendirirken hükümetler, veri kaynaklarının mevcut olmasını ve kuruluşun zaman içinde en önemli kaynaklarla aşinalık ve uzmanlık oluşturmasını sağlamalıdır.


Düzgün planlama, ilgili kullanım senaryolarının bir araya getirilmesine, yani benzer araçlardan ve veri setlerinden yararlanmaya izin vererek, kullanım durumlarını uygulamak için gereken süreyi azaltabilir. Hükümetler, kaynakları yalnızca görevin etkisi ve fizibilitesi tarafından önceliklendirilen kullanım senaryolarına harcayarak, yatırımların doğrudan, somut görev sonuçlarına ve sonuçlarına yakından bağlı olmasını sağlayabilir. Bu erken kazanımlar, daha fazla AI çabası için ajanslarda destek ve heyecan yaratabilir.


Hükümetler, uygun veri setlerini seçebilir ve beş adımı izleyerek bunların yapay zekaya hazır kriterleri karşılamasını sağlayabilir.


1. Kullanım alanına özel bir veri kataloğu oluşturun

Baş veri sorumlusu, baş bilgi sorumlusu veya veri alanı sahibi, önceliklendirilmiş kullanım örnekleriyle ilgili mevcut veri setlerini, bunlara kimin sahip olduğunu, hangi sistemlerde yaşadıklarını ve kişinin nasıl erişim sağladığını belirlemek için iş liderleriyle birlikte çalışmalıdır. Veri keşfi yaklaşımları, belirli ajans gerçeklerine ve mimarilerine göre uyarlanmalıdır. Yapay zeka için veri katalogları oluşturmaya yönelik pek çok başarılı çaba, hat ve gözetmen düzeyindeki sistem kullanıcılarıyla doğrudan işbirliğini, teknik uzmanlarla ve kadrolu işletme personeliyle görüşmeleri ve ajans verilerini hızlı bir şekilde haritalamak ve sınıflandırmak için akıllı veya otomatik veri keşif araçlarının kullanımını içerir.


Örneğin bir federal kurum, gelişmiş operasyonel etkinlik ve maliyet tasarrufu elde etmek için en önemli faktörleri vurgulamak için kurumsal verilerinin dijital bir değerlendirmesini yönetti. Ajans genelinde veri uygulayıcılarının mevcut veri setlerini bulmasına ve bunlara erişmesine izin veren bir veri kataloğu oluşturdu.


2. Veri setlerinin kalitesini ve eksiksizliğini değerlendirin

Öncelikli kullanım durumları sınırlı sayıda veri seti gerektireceğinden, ajanslar kalite ve eksiksizlik için bir temeli karşılayıp karşılamadıklarını belirlemek için bu kaynakların durumunu değerlendirmelidir. Ulusal bir gümrük kurumunda, iş liderleri ve analitik uzmanları öncelikli kullanım örneklerini seçti ve ardından ilgili veri setlerini denetledi. İlk kullanım örneklerinde ilerlemek, tahmini mevcut verilerin yüzde 10'undan daha azını kullandı.


Çoğu durumda, ajanslar, yapay zeka çabalarını mevcut verilerle etki yaratacak şekilde uyarlamak ve ardından bu yaklaşımı zaman içinde iyileştirmek için önemli bir fırsata sahiptir. Eyalet düzeyindeki bir devlet kurumu, 1.5 ila 1.8 kat arasında bir performans iyileştirmesi oluşturmak için halihazırda var olan verileri ve tahmine dayalı analitiği kullanabildi. Daha sonra bu ivmeyi kurumlar arası IGA'ları takip etmek için kullandılar ve yatırımlarını en yüksek etkiye sahip verilere odakladılar.


3. Öncelikli veri kaynaklarını toplayın

Ajanslar daha sonra seçilen veri kaynaklarını mevcut bir veri gölünde veya bir mikro veri gölünde (bir "su birikintisi") - ya mevcut altyapıda ya da bu amaç için bir araya getirilmiş yeni bir bulut tabanlı platformda - birleştirmelidir. Veri gölü, işletme, müşteri, analiz personeli ve yükleniciler tarafından kullanılabilir olmalıdır. Büyük bir inşaat mühendisliği kuruluşu, 23 kurumsal kaynak planlama sisteminden ilgili tedarik verilerini hızlı bir şekilde topladı ve ilgili tüm paydaşların kullanımına sunulan tek bir bulut bulut sunucusunda merkezileştirdi.


4. Verilerin uygunluğunu ölçün

Daha sonra, devlet kurumları, mevcut verilerin miktarı, içeriği, kalitesi ve birleştirilebilirliği hakkında kullanım durumuna özel bir değerlendirme yapmalıdır. Bu tür değerlendirmeler, belirli bir kullanım senaryosunun bağlamına veya çözülecek probleme bağlı olduğundan, veriler nesnel olarak amaca uygun olamaz. Örneğin, yüksek düzeyde kümelenmiş veya belirli gözlemleri kaçıran veriler, kişi düzeyinde karar desteğini bilgilendirmek için yeterince ayrıntılı olmayabilir veya düşük kaliteli olabilir. Bununla birlikte, topluluk düzeyinde tahminler için mükemmel şekilde uygun olabilirler. Uygunluğu değerlendirmek için analitik ekipleri şunları yapmalıdır:

  • Öncelikli kullanım durumlarıyla ilgili mevcut verileri seçin.

  • Modeli bilgilendirmek için gereken belirli alanları ve tabloları belirleyerek analitik için yeniden kullanılabilir bir veri modeli geliştirin. Özellikle, doğrudan ham verilerle çalışmaya, somutlaştırılmış görünümlerden yararlanmaya veya her özellik için özel sorgular geliştirmeye dayalı yaklaşımlar genellikle ölçeklenmez ve veri tutarsızlığına neden olabilir.

  • Eksiklikleri ve iyileştirme için potansiyel fırsatları anlamak için önceliklendirilmiş verilerin (hata oranı ve eksik alanlar gibi) kalitesini ve eksiksizliğini sistematik olarak değerlendirin.

  • Yeniden kullanılabilir veri modelini ve içeriğini yinelemeli olarak zenginleştirerek, veri geliştirmeye en iyi çevik yaklaşımları getirin. Kalitenin eksik olduğu yerlerde, analiz ekipleri yeni özellikler veya parametreler tasarlayabilir, üçüncü taraf veri kümelerini birleştirebilir veya kritik alanlarda yeni veriler toplayabilir.

Bir devlet kurumu, savunmasız bir nüfusun bakım kararlarını bilgilendirmeye yardımcı olmak için bir makine öğrenimi modeli oluşturmaya karar verdi. Model, demografiden sağlığa kadar geniş bir girdi yelpazesi gerektiriyordu. Bu verilerin çoğu düşük kaliteli ve yetersiz bir formattaydı. Ajans, kağıt tabanlı verileri sindirerek gerekli verilerin sistematik bir değerlendirmesini yaptı ve veri kalitesini iyileştirmek ve mevcut veri setlerini zenginleştirmek için hedefli yatırımlar yaptı. Ayrıca sonuçları iyileştirmek için analitik modeli oluşturdu.


5. Yönetin ve uygulayın

Son adım, ajansların yönetim, güvenlik, kalite ve meta verileri kapsayan bir yönetişim çerçevesi oluşturmasıdır. Bunun, verilerin olgunlaşması için derhal kapsamlı bir kurallar, kontroller ve özlemler listesi olması gerekmez. Yine de, farklı ortamlardaki veri setlerinin işletme sahipleri tarafından nasıl yönetileceğini, kalitelerinin nasıl artırılacağını ve diğer ajanslar tarafından nasıl erişilebilir ve kullanılabilir hale getirileceğini tanımlamak çok önemlidir.


Birçok güvenlik yönetişimi sorunu, verileri uyumlu bir ortamda veya akredite edilmiş bir kapta tutularak halihazırda karşılanmış olabilir, ancak ajansların yine de adreslenmemiş kalan kuralları saptaması gerekir. Son olarak, standart çerçevelere (örneğin Ulusal Standartlar ve Teknoloji Enstitüsü) ve önde gelen güvenlik kuruluşlarının en iyi uygulamalarına dayalı olarak gerekli kontrolleri belirlemelidirler. Büyük bir devlet kurumu, 150'den fazla veri kaynağı ve özel uygulamaları için güvenlik ve paylaşım gereksinimleri ile mücadele ediyordu. Düzinelerce rol ve kısıtlama kombinasyonunun var olabileceği böylesine karmaşık, rol tabanlı bir ortam için uyarlanmış kurum düzeyinde güvenlik prosedürlerine sahip değildi. Bu sorunu çözmek için liderler, kullanım durumu düzeyinde güvenlik gereksinimlerine sahip kapsamlı bir kurumsal veri stratejisi geliştirdiler ve hedef mimariyi ve uygulama yığınını önemli ölçüde basitleştirdiler. Ajans şu anda çok yıllı bir uygulama yol haritası yürütmektedir.


Bu önemli yönetişim ve güvenlik sorumlulukları, etkiye yönelik güçlü bir önyargı ile eşleştirilmelidir. Çoğu kamu sektörü kurumu, eski şelale geliştirme yaşam döngülerinin ve sertifikasyon ve akreditasyon süreçlerinin AI projeleriyle uyumsuz olduğunu buldu. Geliştirme çabalarına öncülük eden scrum tabanlı yöntemlerden DevSecOps yaklaşımlarını tamamen olgunlaştırmaya ve sürekli teslimata kadar geliştirmeye yönelik çevik yaklaşımlar, süreç ve kültürün de yapay zekaya hazır olmasını sağlamanın merkezinde yer alır. Bu değişiklik genellikle yavaş olsa da, riskten kaçınan kültürler ve köklü politikalar tarafından yavaşlatılsa da, yapay zeka başarı hikayelerinde kritik bir unsurdur.

Hükümetler, göreve dayalı bir veri stratejisi benimseyerek birçok yaygın engelden kaçınabilir ve teknik yeteneklerini, bilgilerini ve sınırlı bütçelerini öncelikli kullanım durumları için gereken veri alt kümesine odaklayabilir. Bu strateji, bir plan olmadan veri ve araç yetenekleri oluşturmaktan kaçınır. Yinelemeli süreç - görev önceliklerini gereksinimlere ve veri mühendisliği görevlerine çevirme, yapay zeka için hazır veriler oluşturma ve verileri içgörülere dönüştürme - yatırımları odaklanmış tutar ve etkilerini en üst düzeye çıkarır.

5 görüntüleme

2020 © The Brand Planet tescilli bir ticari marka ve mülktür. Tüm hakları saklıdır. Bu site Görsel Atölye tarafından 🧡 ile tasarlandı.