Publication:
Derin öğrenme tabanlı adli analiz uygulamaları

dc.contributor.advisorDirik, Ahmet Emir
dc.contributor.authorPoyraz, Ahmet Gökhan
dc.contributor.departmentFen Bilimleri Enstitüsü
dc.contributor.departmentElektronik Mühendisliği Ana Bilim Dalı
dc.date.accessioned2021-03-02T09:08:15Z
dc.date.available2021-03-02T09:08:15Z
dc.date.issued2019-07-05
dc.description.abstractGünümüzde sayısal resimler üzerinde oynama yapabilmek oldukça kolay bir işlem haline gelmiştir. Bu oynama işlemleri genellikle kötü bir niyet taşımaksızın yapılmaktadır. Fakat bazı durumlarda bir resmin oynanıp oynanmadığı oldukça önem arz etmektedir. Özellikle siyasi kişilere karşı manipülasyon yapabilmek için sahte resimler oluşturulmaktadır. Bu bağlamda resimlerin güvenilirliği günümüzde adli kanıt olması açısından oldukça önem arz etmektedir. Mevcut adli analiz yöntemleri bazı durumlarda iyi sonuçlar üretebilmektedir. Ancak çoğu oynama çeşidinde mevcut yöntemler yetersiz kalmaktadır. Literatürdeki PRNU tabanlı kaynak cihaz tanıma yöntemi, adli bilişim alanında çalışanlar tarafından kabul görmüş ve eşdeğer yöntemler arasındaki en iyi yöntem olarak kabul edilir. Ayrıca son zamanlarda bu alana farklı bir açıdan çözüm getiren derin öğrenme tabanlı kamera model sınıflandırıcısı yöntemi de adli bilişim alanında başarısını kanıtlamaktadır. Bu çalışmada PRNU tabanlı yöntem ile derin öğrenme tabanlı yöntem irdelenmiş ve özel bir yaklaşımla birleştirilerek yeni bir yöntem önerilmiştir. Bu yöntem ile sayısal resimler üzerindeki oynanan bölgeler, eşdeğer yöntemlere göre daha doğru bir şekilde tespit edilebilmektedir. Hatta 100 x 100 piksel boyutundaki müdahalelerde dahi iyi derecede çalışmaktadır.
dc.description.abstractNowadays it has become very easy altering the contents of digital images. These alterations are usually carried out without a bad intention. But in some cases, it is very important to know that a picture is altered or not. Particularly, fake images are created to manipulate political figures. In this context, the trustworthiness of the images is very important in terms of forensic evidence. Current forensic detection methods can produce good results in some cases. However, there are insufficient methods available against most types of alterations. The PRNU-based source device identification method in the forensic detection literature is the most accepted method among similar methods by forensic analysts. In addition, deep learning-based camera model classifier method, which has recently been offered as a solution in this area, proved its success in forensic field. In this study, the deep learning based forensic detection method and the PRNU-based method is examined and a new method based on a special fusion approach is proposed. With this method, the tampered regions on digital images can be detected more accurately than the methods in the literature, even so, the proposed method works well in detecting small-scale forgeries with the size of 100 x 100 pixels.
dc.format.extentIX, 85 sayfa
dc.identifier.citationPoyraz, A. G. (2019). Derin öğrenme tabanlı adli analiz uygulamaları. Yayınlanmamış yüksek lisans tezi. Bursa Uludağ Üniversitesi Fen Bilimleri Enstitüsü.
dc.identifier.urihttp://hdl.handle.net/11452/16898
dc.language.isotr
dc.publisherBursa Uludağ Üniversitesi
dc.relation.publicationcategoryTez
dc.rightsinfo:eu-repo/semantics/openAccess
dc.subjectPRNU
dc.subjectCNN
dc.subjectOynama tespiti
dc.subjectDerin öğrenme
dc.subjectAdli bilişim
dc.subjectTamper detection
dc.subjectDeep learning
dc.subjectImage forensics
dc.titleDerin öğrenme tabanlı adli analiz uygulamaları
dc.title.alternativeDeep learning based forensic applications
dc.typemasterThesis
dspace.entity.typePublication
local.contributor.departmentFen Bilimleri Enstitüsü/Elektronik Mühendisliği Ana Bilim Dalı

Files

Original bundle

Now showing 1 - 1 of 1
Thumbnail Image
Name:
561691.pdf
Size:
9.02 MB
Format:
Adobe Portable Document Format
Description:

License bundle

Now showing 1 - 1 of 1
Placeholder
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: