Roomba’yı test edenler, sosyal medyaya yüklenmiş hassas resimler buldu
Robot elektrikli süpürgeler bana her zaman yardımcı, arkadaş canlısı küçük adamlar gibi görünmüştür, ama belki de bu onları fazla kullanmamış olmamdandır. Etrafta bir şeylere çarpan ve evimi daha temiz yapan küçük bir herif fikrine bayılıyorum. Bu fikir artık daha az çekici görünüyor, tuvaletteyken fotoğraflarınızı çekip, siz haberiniz olmadan sosyal medyaya yükleyebileceklerini öğrendim. Bu, mekanik uşağımdan istemediğim bir tuhaf zorbalık düzeyi.
Eileen Guo şurada MIT Teknoloji İncelemesi (yeni sekmede açılır) iRobot’un Roomba elektrikli süpürgelerinden, kullanıcıların yüzlerinin açıkça görülebildiği bu tür fotoğrafların nasıl ortaya çıktığını araştırıyor. sosyal medyaya giden yol (yeni sekmede açılır). Resimler, tuvalette kadın ve çocukların görüntüleri de dahil olmak üzere, evlerinde kişisel işlerini yapan insanların çok samimi çekimlerini içeriyor. Guo ayrıca mükemmel bir performans sergiledi. Twitter dizisi (yeni sekmede açılır) daha fazla açıklama ve faydalı bağlantılar ile.
Hassas görüntüler, veri toplama açısından bunu yapacak olan robot vakumunun konumundan net bir şekilde alınmıştır. Etkilenen bir kullanıcı, MIT Technology Review’a, iRobot Roomba J serisi için bir ürün testçisi olduğunu açıkladı; bu, robotun ürünü iyileştirme umuduyla bilgi toplamak için evde dolaşmasına izin vermek anlamına geliyordu.
Bilgilerinizin, temizlik yapay zekasını eğitmek isteyen güvenli bir şirkete geri gönderilmesini beklemek bir şeydir ve bu görüntülerin sosyal medyaya da yüklendiğini öğrenmek başka bir şeydir. MIT Technology Review, iRobot’un tüm bu verileri topladığında, bunları veri açıklama şirketlerine gönderdiğini buldu. Böyle bir şirket, sansürsüz verileri değerlendirmeye yardımcı olması için uzaktan yüklenicileri işe alan Scale AI idi.
Bu, işçilerin sosyal medyada kendi aralarında görüntüleri paylaşmasına yol açtı ve bu, elbette daha geniş bir dünyaya yol açtı. Pek çok kullanıcı bunun, testçi olarak sözleşmeleri olmasa bile güvenlerini ihlal ettiğini düşündü. Çıkış yapan en az 15 resim var, ancak muhtemelen çok daha fazlası paylaşılıyor. Uygun şekilde iRobot, Scale AI ile çalışmayı durdurdu.
Ne yazık ki iRobot, etkilenenlere yardım etmek veya güvenlerini yeniden aşılamak için bundan fazlasını yapmıyor. CEO Colin Angle, MIT Technology Review’un raporuna bir LinkedIn gönderisinde yanıt verdi (yeni sekmede açılır) bu sansürsüz görüntülerin konser çalışanlarına sunulmasıyla ilgili herhangi bir sorun veya tehlike olduğunu kabul etmeyenler. Çok az sorumluluk veya başvuru ile tehlikeli bir fikir gibi görünüyor.
Angle, Linked In gönderisinin ilk bölümünü şirketin Roombas’larının ne kadar harika olduğundan bahsederek ve bunu bunun gibi testçilerden toplanan verilere bağlayarak geçiriyor, ardından tüketici olmadıklarını ve izin verdiklerini söyleyerek onları otobüsün altına atıyor. verilerini toplasınlar.
Bunun normal tüketici iRobot ürünlerinde olmadığını bilmek güzel, ancak test uzmanlarına karşı sorumluluk eksikliği, yakın zamanda dışarı çıkıp bir Roomba kapmak istememe neden olmuyor.
LinkedIn gönderisi ayrıca, makalesinde görüntülerin sansürlü versiyonlarını paylaştığı için MIT Technology Review’u cezalandırıyor;
Kaynak : https://www.pcgamer.com/roomba-testers-found-sensitive-images-uploaded-to-social-media