
Otonom sistemler (robotlar, sürüş otomasyonu, depo araçları, dronlar, endüstriyel mobil platformlar) gerçek dünyada çalıştıkça güvenlik tartışmaları da “doğru terimleri doğru yerde kullanma” ihtiyacıyla büyür. Aynı kelime farklı ekiplerde farklı anlamlara gelebilir: fail-safe kimine göre “durmak”, kimine göre “kontrollü şekilde riski azaltmak”; validation kimine göre “test”, kimine göre “gereksinime uygunluk” demektir.
Bu temel kılavuz, güvenlik ve doğrulama terminolojisini pratik bir sözlük gibi ele alır ve terimleri sahada kullanılan güvence yaklaşımlarına bağlar. Özellikle UL 4600’ın güvenlik kanıtı (safety case) odağı (UL Solutions), ISO 21448 (SOTIF)’in “niyet edilen işlevsellikten doğan riskler” yaklaşımı (ISO kütüphane özeti), FAA’nın öğrenen bileşenler için güvence yol haritası (FAA PDF) ve SAE J3016’nın otomasyon seviyeleri sözlüğü (SAE) referans alınmıştır.
Güvenlik tartışmalarında iki temel soru vardır:
Otonom sistemlerde bu ayrım kritikleşir; çünkü sistemin “gereksinimleri” bile zamanla olgunlaşır. Bu yüzden birçok güvence yaklaşımı, yalnızca laboratuvar testleriyle bitmeyen; operasyon sırasında izlemeyi ve geri beslemeyi de içeren bir kanıt zinciri kurmaya çalışır (ör. UL 4600’ın hizmette izleme ve performans göstergeleri vurgusu). (S1)
Safety case, bir sistemin belirli bir bağlamda yeterince güvenli olduğuna dair yapılandırılmış argüman ve kanıt bütünüdür. UL 4600 gibi çerçeveler, otonom ürünler için bu yaklaşımı merkezî görür. (S1)
Pratikte bir safety case şunları açıkça görünür kılar:
Not: Safety case “tek bir rapor” değil, ürün yaşam döngüsü boyunca yaşayan bir dosya seti olarak düşünülmelidir; özellikle öğrenen bileşenlerde bu ihtiyaç daha da belirginleşir. FAA’nın güvence yol haritası, kanıta dayalı ve aşamalı yaklaşımları, ayrıca çalışma-zamanı gözetimini gündeme getirir. (S3)
SOTIF (Safety of the Intended Functionality), “sistem arızalanmadığında” bile ortaya çıkabilen tehlikelere odaklanır. Örneğin algılamanın doğal sınırları, nadir çevresel koşullar, belirsizlikler veya senaryoların sistematik olarak kapsanmaması gibi nedenler risk doğurabilir. ISO 21448’in amacı bu tür tehlikeleri tanımlamak ve azaltmak için bir süreç çerçevesi sunmaktır. (S7)
SOTIF yaklaşımı, otonom algılama ve karar verme bileşenlerinin olduğu sistemlerde (özellikle kara araçları ve robotik) şu soruları zorlar:
Bu alanda evrensel, tek bir sayısal başarı eşiği beklemek genellikle gerçekçi değildir; standartlar çoğu zaman süreç ve kanıt mantığı tanımlar, metrik seçimleri ise uygulamaya göre şekillenir. (S7)
| Terim | Kısa anlam | Neden önemli? | İpuçları / tipik kanıt |
|---|---|---|---|
| ODD (Operational Design Domain) | Sistemin çalışmak üzere tasarlandığı çevre/koşul kümesi | “Nerede güvenli?” sorusunun sınırlarını çizer; safety case kapsamını belirler | ODD tanımı, dış koşullar listesi, kısıtlar; güvenlik argümanına bağlanır |
| Fail-safe | Tehlikeli sonucu önlemek için güvenli duruma geçiş | Arıza veya belirsizlikte “kontrolün nasıl kaybedilmeyeceğini” tarif eder | Güvenli duruma geçiş mantığı, durma/çekilme, hız düşürme; sektöre göre değişir (UL 4600 ve SOTIF bağlamlarında tartışılır) (S1) (S7) |
| Redundancy (çoklama) | Kritik işlevi yedekli tasarlama | Tekil hata noktalarını azaltır; kullanılabilirlik ve güvenlik hedeflerine yardımcı olur | Yedek sensör/hesaplama/enerji hattı; arıza tespit ve geçiş testi; izleme göstergeleri (UL 4600 bağlamı) (S1) |
| Diversity (çeşitlilik) | Yedeklerin aynı hataya düşmemesi için farklı teknoloji/yöntem kullanma | Ortak nedenli hatalara karşı dayanımı artırabilir | Farklı sensör modaliteleri (kamera + radar), farklı algoritma aileleri; bağımlılık analizi |
| Runtime assurance (çalışma-zamanı güvence) | Sistem çalışırken güvenlik koşullarını izleme ve gerektiğinde müdahale | Özellikle öğrenen bileşenlerde, yalnızca ön testlerin yetmeyebileceği varsayımına yanıt verir | Güvenlik monitörleri, sınır ihlali tespiti, güvenli moda geçiş; FAA yol haritasında vurgulanan bir ihtiyaç olarak ele alınır (S3) |
| Safety Performance Indicators (SPI) | Güvenliği izlemek için seçilen operasyonel göstergeler | Hizmette (in-service) izleme ve sürekli iyileştirme için ölçülebilir bir dil sağlar | Olay sınıfları, ihlal sayımları, senaryo kapsaması; UL 4600 eğitim/uygulama anlatılarında öne çıkar (S1) |
| Scenario-based testing | Senaryolar üzerinden sistem davranışını sınama | Nadir ve kritik koşulları sistematik yakalamanın pratik yolu | Senaryo kütüphanesi, varyasyonlar, kapsam mantığı; SOTIF düşüncesiyle uyumlu (S7) |
| Sim-to-real | Simülasyonda öğrenilen/test edilenin gerçek dünyaya aktarımı | Geliştirme hızını artırabilir; ancak simülasyon-gerçek farkı risk yaratır | Domain randomization, dijital ikiz, saha geri beslemesi; literatür fayda gösterir ama “garanti” konusu sınırlıdır (S6) |
| Digital twin (dijital ikiz) | Gerçek sistem/ortamın yüksek doğruluklu simülasyon temsili | Değişiklikleri güvenli biçimde denemeye yardımcı olabilir | Model doğrulama, veri uyumu, kalibrasyon; sim-to-real tartışmalarında sık geçer (S6) |
| Model assurance (ML güvence) | ML bileşenlerinin güvenlik argümanına nasıl dahil edileceği | Veri seti, eğitim süreci ve performans sınırları görünür olmazsa safety case zayıflar | AMLAS gibi metodolojiler: veri seti açıklamaları, test kanıtları, izlenebilirlik artefaktları (S5) |
| SAE J3016 seviyeleri | Sürüş otomasyonu için terim ve seviye taksonomisi | Paydaşlar arası iletişimde bağlam sağlar; ancak seviye tek başına onay prosedürü anlamına gelmez | Dokümantasyonda doğru terim kullanımı; kapsam sınırlarını açık tutma (S8) |
Aşağıdaki akış, farklı sektörlerde değişse de (otomotiv, havacılık, endüstriyel robotik) ortak bir iskelet sunar. Amaç, terimleri “toplantı kelimesi” olmaktan çıkarıp somut çıktılara bağlamaktır.
Bu adım yapılmadan “validation” tartışması genellikle soyut kalır; çünkü doğrulanan şeyin sınırları belirsizdir.
Arızalara odaklanan klasik yaklaşımlara ek olarak SOTIF bakışıyla “arıza yokken yanlış davranış” kaynaklarını listeleyin. ISO 21448 bu sınıf riskler için süreç odaklı bir çerçeve sağlar. (S7)
UL 4600 bağlamında, in-service izleme ve göstergeler (SPI) bu kanıt zincirinin devamı olarak düşünülür. (S1)
Öğrenen bileşenler için kanıt türleri klasik yazılımdan farklılaşır: veri setinin kapsamı, etiket kalitesi, dağılım kayması (dataset shift) riski, kalibrasyon ve belirsizlik gibi konular öne çıkar. AMLAS gibi metodolojiler, ML güvence kanıtlarının nasıl yapılandırılabileceğine dair rehber niteliğinde bir süreç önerir. (S5)
Sim-to-real teknikleri geliştirmenin hızını artırabilir; ancak simülasyonun gerçek dünyayı ne kadar temsil ettiği, güvenlik argümanının hassas noktasıdır. Güncel derlemeler, domain randomization ve dijital ikiz gibi yöntemlerin yararlı olduğunu raporlar; yine de genellenebilir güvenlik garantileri konusu araştırmada aktif bir alandır. (S6)
FAA’nın güvence yol haritası gibi belgelerde, yalnızca ön testlere dayanmayan; operasyon sırasında gözetim ve kanıta dayalı aşamalı yaklaşım ihtiyacı tartışılır. (S3)
Bu içerik, ekipler arası ortak dil kurmak ve güvenlik/doğrulama dokümanlarını daha tutarlı hale getirmek için hazırlanmıştır. Güvenlik-kritik sistemlerde nihai gereksinimler; sektör, ürün sınıfı, operasyon alanı ve geçerli düzenleyici beklentilere göre değişir. Uygulamada, kullandığınız standartlar ve kurum rehberleriyle uyumlu bir safety case inşa etmek en sağlıklı yaklaşımdır (ör. UL 4600, ISO 21448/SOTIF, FAA ve NIST çıktıları). (S1) (S7) (S3) (S2)
Yorumlar