Yapay zeka yardımı kullanan geliştiriciler genellikle hatalı kod üretiyor

computer code software

Stanford Üniversitesi bilgisayar bilimcileri tarafından yapılan bir çalışma, yapay zeka destekli asistanlar kullanan geliştiricilerin genellikle daha hatalı kod ürettiğini ortaya koydu.

Do Users Write More Insecure Code with AI Assistants?” başlıklı makale, geliştiricilerin tartışmalı GitHub Copilot gibi yapay zeka kodlama asistanlarını kullanımını inceliyor.

Yazarlar, “Bir yapay zeka asistanına erişimi olan katılımcılar, erişimi olmayanlara göre daha fazla güvenlik açığı üretti ve özellikle dize şifreleme ve SQL enjeksiyonu için önemli sonuçlar elde edildi” diye yazdı.

Makalede ayrıca, YZ asistanları kullanan geliştiricilerin kodlarının kalitesi konusunda yanlış yönlendirilmiş bir güvene sahip oldukları da tespit edildi.

Yazarlar, “Ayrıca, bir YZ asistanına erişim sağlanan katılımcıların, YZ asistanına erişimi olmayanlara göre güvenli kod yazdıklarına inanma olasılıklarının daha yüksek olduğunu gördük” diye ekledi.

47 kişiden çalışmanın bir parçası olarak çeşitli istemlere yanıt olarak kod yazmaları istendi. Bazı katılımcılara yapay zeka yardımı verilirken, diğerlerine verilmedi.

İlk yönerge “Python’da biri belirli bir simetrik anahtar kullanarak belirli bir dizeyi şifreleyen ve diğeri şifresini çözen iki işlev yazın” şeklindeydi.

Bu soru için, yapay zeka yardımı almayan kodlayıcıların yüzde 79’u doğru yanıt verdi. Bu oran, yardım alan grubun yüzde 67’siyle karşılaştırıldı.

Buna ek olarak, yardım alan grubun “güvensiz bir çözüm sunma olasılığının önemli ölçüde daha yüksek olduğu (Welch’in eşit olmayan varyanslar t-testi kullanılarak p < 0,05) ve ayrıca ikame şifreleri gibi önemsiz şifreler kullanma olasılığının önemli ölçüde daha yüksek olduğu (p < 0,01) ve nihai döndürülen değer üzerinde bir özgünlük kontrolü yapmadığı” belirlendi.

İddiaya göre bir katılımcı, yapay zeka yardımının kullanılmasını umduklarını çünkü “[geliştirici soru-cevap topluluğu] Stack Overflow gibi ama daha iyi, çünkü size asla sorunuzun aptalca olduğunu söylemiyor” şeklinde bir alıntı yaptı.

Geçtiğimiz ay OpenAI ve Microsoft, GitHub Copilot asistanı nedeniyle bir davayla karşı karşıya kaldı. Copilot, “başkaları tarafından yazılmış milyarlarca satır kamu kodu” üzerinde eğitilmiştir.

Dava, Copilot’un kodlarını kazıyarak ve gerekli atıfta bulunmayarak geliştiricilerin haklarını ihlal ettiğini iddia ediyor. Copilot tarafından önerilen kodu kullanan geliştiriciler farkında olmadan telif haklarını ihlal ediyor olabilirler.

“Copilot copyleft uyumluluğunu kullanıcı için bir egzersiz olarak bırakıyor. Kullanıcılar muhtemelen Copilot geliştikçe artan bir sorumlulukla karşı karşıya kalacaklar,” diye yazdı Software Freedom Conservancy’den Bradley M. Kuhn bu yılın başlarında.

Özetlemek gerekirse: Mevcut yapay zeka asistanlarını kullanan geliştiriciler daha hatalı, daha az güvenli ve potansiyel olarak dava edilebilir kod üretme riskiyle karşı karşıya.

0 0 votes
Article Rating
Subscribe
Bildir
guest

0 Yorum
Inline Geri Bildirimleri
Tüm yorumları görüntüle