Derin öğrenme tabanlı adli analiz uygulamaları

dc.contributor.advisorDirik, Ahmet Emir
dc.contributor.authorPoyraz, Ahmet Gökhan
dc.contributor.departmentBursa Uludağ Üniversitesi/Fen Bilimleri Enstitüsü/Elektronik Mühendisliği Anabilim Dalı.tr_TR
dc.date.accessioned2021-03-02T09:08:15Z
dc.date.available2021-03-02T09:08:15Z
dc.date.issued2019-07-05
dc.description.abstractGünümüzde sayısal resimler üzerinde oynama yapabilmek oldukça kolay bir işlem haline gelmiştir. Bu oynama işlemleri genellikle kötü bir niyet taşımaksızın yapılmaktadır. Fakat bazı durumlarda bir resmin oynanıp oynanmadığı oldukça önem arz etmektedir. Özellikle siyasi kişilere karşı manipülasyon yapabilmek için sahte resimler oluşturulmaktadır. Bu bağlamda resimlerin güvenilirliği günümüzde adli kanıt olması açısından oldukça önem arz etmektedir. Mevcut adli analiz yöntemleri bazı durumlarda iyi sonuçlar üretebilmektedir. Ancak çoğu oynama çeşidinde mevcut yöntemler yetersiz kalmaktadır. Literatürdeki PRNU tabanlı kaynak cihaz tanıma yöntemi, adli bilişim alanında çalışanlar tarafından kabul görmüş ve eşdeğer yöntemler arasındaki en iyi yöntem olarak kabul edilir. Ayrıca son zamanlarda bu alana farklı bir açıdan çözüm getiren derin öğrenme tabanlı kamera model sınıflandırıcısı yöntemi de adli bilişim alanında başarısını kanıtlamaktadır. Bu çalışmada PRNU tabanlı yöntem ile derin öğrenme tabanlı yöntem irdelenmiş ve özel bir yaklaşımla birleştirilerek yeni bir yöntem önerilmiştir. Bu yöntem ile sayısal resimler üzerindeki oynanan bölgeler, eşdeğer yöntemlere göre daha doğru bir şekilde tespit edilebilmektedir. Hatta 100 x 100 piksel boyutundaki müdahalelerde dahi iyi derecede çalışmaktadır.tr_TR
dc.description.abstractNowadays it has become very easy altering the contents of digital images. These alterations are usually carried out without a bad intention. But in some cases, it is very important to know that a picture is altered or not. Particularly, fake images are created to manipulate political figures. In this context, the trustworthiness of the images is very important in terms of forensic evidence. Current forensic detection methods can produce good results in some cases. However, there are insufficient methods available against most types of alterations. The PRNU-based source device identification method in the forensic detection literature is the most accepted method among similar methods by forensic analysts. In addition, deep learning-based camera model classifier method, which has recently been offered as a solution in this area, proved its success in forensic field. In this study, the deep learning based forensic detection method and the PRNU-based method is examined and a new method based on a special fusion approach is proposed. With this method, the tampered regions on digital images can be detected more accurately than the methods in the literature, even so, the proposed method works well in detecting small-scale forgeries with the size of 100 x 100 pixels.en_US
dc.format.extentIX, 85 sayfatr_TR
dc.identifier.citationPoyraz, A. G. (2019). Derin öğrenme tabanlı adli analiz uygulamaları. Yayınlanmamış yüksek lisans tezi. Bursa Uludağ Üniversitesi Fen Bilimleri Enstitüsü.tr_TR
dc.identifier.urihttp://hdl.handle.net/11452/16898
dc.language.isotrtr_TR
dc.publisherBursa Uludağ Üniversitesitr_TR
dc.relation.publicationcategoryTeztr_TR
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectPRNUtr_TR
dc.subjectCNNtr_TR
dc.subjectOynama tespititr_TR
dc.subjectDerin öğrenmetr_TR
dc.subjectAdli bilişimtr_TR
dc.subjectTamper detectionen_US
dc.subjectDeep learningen_US
dc.subjectImage forensicsen_US
dc.titleDerin öğrenme tabanlı adli analiz uygulamalarıtr_TR
dc.title.alternativeDeep learning based forensic applicationsen_US
dc.typemasterThesisen_US

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
561691.pdf
Size:
9.02 MB
Format:
Adobe Portable Document Format
Description:

License bundle

Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: