TR2022005022A2 - INTERACTIVE DOCTOR EXAMINATION SYSTEM AND METHOD - Google Patents
INTERACTIVE DOCTOR EXAMINATION SYSTEM AND METHODInfo
- Publication number
- TR2022005022A2 TR2022005022A2 TR2022/005022 TR2022005022A2 TR 2022005022 A2 TR2022005022 A2 TR 2022005022A2 TR 2022/005022 TR2022/005022 TR 2022/005022 TR 2022005022 A2 TR2022005022 A2 TR 2022005022A2
- Authority
- TR
- Turkey
- Prior art keywords
- doctor
- patient
- data
- speech
- interactive
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 33
- 230000002452 interceptive effect Effects 0.000 title abstract description 25
- 238000006243 chemical reaction Methods 0.000 abstract description 28
- 238000004458 analytical method Methods 0.000 abstract description 16
- 230000008451 emotion Effects 0.000 abstract description 11
- 230000036541 health Effects 0.000 description 15
- 238000011282 treatment Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 208000019695 Migraine disease Diseases 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 206010027599 migraine Diseases 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Abstract
Buluş, otomatik bir şekilde klinik muayene raporu oluşturma, akıllı sözleşme tabanlı veri paylaşımı, doktor ve hasta duygu analizi, konuşma metin dönüşümü ve blokzincir tabanlı güvenli depolama sistemleri hizmeti sağlayan interaktif doktor muayene sistemi ve yöntemi ile ilgilidir.The invention is related to an interactive doctor examination system and method that provides automatic clinical examination report generation, smart contract-based data sharing, doctor and patient emotion analysis, speech-to-text conversion and blockchain-based secure storage systems.
Description
TARIFNAME INTERAKTIF DOKTOR MUAYENE SISTEMI VE YÖNTEMI Teknolojik Alan: Bulus, saglik sektöründe kullanilmak üzere, çevrimiçi interaktif görüsme platformlarinin olusturulmasi, doktor hasta görüsmesi duygu analizinin yapilmasi, muayene esnasinda sesin konusmadan yaziya (speech to text) dökülerek veri etiketlemelerinin yapilmasi ve yapilandirilmis çok amaçli muayene raporunun hazir hale getirilmesi, hasta rizasina bagli erisilebilir sekilde tibbi verilerin blokzincir teknolojisi ve sifreleme protokolleri kullanilarak mahremiyetin yüksek güvenlikli ortak bir bulut platformu ile saklanmasi (SaaS), görüsme kayitlarina farkli bir doktor erisiminde ortak izin ile veya kamu kararlari ile kayda erisebilecegi özgün bir sistem gelistirilmesi, bu içerige erisim kayitlarinin raporlanabilir hale getirilmesi, muayene sirasinda doktorun hastaya görsel ve Isitsel bilgi vermesini veya hastadan bilgi toplanarak interaktif içerikler paylasilabilmesini saglayan bir sistem ve yöntem ile ilgilidir. Tarifnameye konu bulus kapsaminda gelistirilen sistem ile hem doktor, hastane, hasta muayene ve yönetim süreçleri tamamen dijitallesecek, hem hasta ve hastalik takibi veri depolama sayesinde birey bagimsiz gözlemlenebilecek hem de muayene sürecinde yasanan iletisim ve operasyonel problemlerin kamu davasina dönüsmesi durumunda tüm taraflara ve kamuya tarafsiz somut veri sunabilecek nitelikte olacaktir. Doktorlara hasta takip sürecinde geriye dönük kolay tarama ile inceleme ve raporlama imkâni saglanacaktir. Buna ek olarak, saklanan verilerin hasta doktor arasindaki davalarda somut delil olarak kullanilmasina dayanak saglayabilecektir. Bulus kapsaminda doktor hasta arasindaki konusma ses verisi kullanilarak konusmanin metne dönüstürülmesi, bu interaktif muayene sirasinda elde edilen heterojen veriler kullanilarak klinik muayene raporunun olusturulmasi, konusmaci tanima ve konusmaci duygu analizi bilesenlerini içeren bir modül bulunmaktadir. Teknigin Bilinen Durumu: Son yillarda dünyada pandeminin etkisi ile çogu sektörde isler ve toplantilar uzaktan yapilmaktadir. Salgin dönemi birçok isin uzaktan yapilabilecegini kanitlamistir. Artan nüfus ve gelisen teknolojinin bir sonucu olarak bazi saglik muayenelerinin de uzaktan yapilabildigi gözlemlenmistir. Tarifname konusu bulus, hastalar ve doktorlar arasindaki muayenenin sanal ortamda, güvenli, verimli ve etkin bir sekilde gerçeklestirilebilmesini saglayan bir yöntem ve sistemi tarif etmektedir. Mevcutta çok sayida görüntülü görüsme çözümü bulunmaktadir, ancak hasta ve doktor arasindaki e-saglik Video baglantilarinin kayit altina alinmasi durumunda operasyonel ve hukuki zorluklar yasanmaktadir ve yasal gereklilikleri karsilamamaktadir. Uzaktan yürütülen tedavilerin kayitlari özel hasta verilerini içerir ve buna göre islenmesi ve saklanmasi gerekir. Birçok Avrupa ülkesinde tibbi veriler söz konusu ülkeden ayrilamaz ve kayitlarin bu ülkede bulunan bir bulut çözümünde güvenli bir sekilde saklanmasi gerekir. Günümüzde kullanilan video konferans çözümlerinin çogu saglayicisi ABD merkezli sirketler oldugundan, harici bir bulut hizmeti de yasal gereklilikleri karsilamadigi gözlemlenmistir. Ülkemizde ise hastane altyapilari, yapilan tedavilerin kaydedilmesi ve onlarin güvenli olarak arsivlenmesi için uygun ve yeterli degildir. Mevcutta var olan çözümler online görüsme ve toplanti amaciyla gelistirildikleri için tibbi muayene süreçlerinin yerine getirilmesini, doktorun hastaya interaktif tibbi bir hizmet sunmasini ve geriye dönük veri etiketleme yöntemi ile kayit takibinin yapilmasini saglayacak niteliklerde araçlardan da yoksundur. E-Saglik ve Teletip islemleri Avrupa saglik mevzuatlarinca taninan tedavi yöntemleridir. Medikal tedavilerde seffaflik konusunun önem kazanmasiyla hastalara sunulan servislerin kalitesinin artirilmasi hedeflenmektedir. Bu süreçte; lokal tedavilerin ve uzaktan görüntülemeyle yapilan tedavilerin kaydedilmesi gerekmektedir. Kayitlar hukuksal açidan da önem tasimaktadir. Tedaviden memnun kalmayan ve sikayetçi olan hastalar yasal islemlere basvurabilir. Böyle durumlarda yapilan medikal kayitlar davalarda kanit olarak kullanilabilir. Avrupa Konseyi, 1970'li yillardan itibaren kisisel verilerin korunmasi alaninda çalismalar yürütme ve bireylerin saglik verilerini mahremiyet olarak kabul etmektedir. Buna bagli olarak çogu ülke, hastanelerde ya da uzaktan yapilan tüm tedavilerin kaydedilmesini zorunlu hale getirmeyi planlamaktadir. Dolayisiyla, yakin zamanda Avrupa da ve ülkemizde yapilacak hukuksal degisikliklerin, yapilan kayitlari yasal delil olarak kabul edilmesi ve bu kayitlarin hastaneler ve saglik merkezlerinde on yillarca arsivlenmesinin zorunlu hale getirilmesi beklenmektedir. Ancak günümüzdeki hastanelerin mevcut altyapilari bütün tedavilerin kaydedilmesi ve onlarin güvenli arsivlenmesi için uygun ve yeterli degildir. Konusmadan metne dönüsüm için çok çesitli hizmetler vardir. Bunlarin baslicalari, Google tarafindan gelistirilen "Google Web Speech API", IBM tarafindan olusturulan "Watson" ve Microsoft tarafindan olusturulan "Azure Speech Services" olarak verilebilir. Python'un "SpeechRecognition" adli kütüphanesi Google, lBM ve Microsoft Hizmetleri de dahil olmak üzere konusma tanima ve sesten metne dönüstürme için farkli APl'leri desteklemektedir. Ayrica bunlar farkli bir ses aksanina veya ses düzenine uyum saglama yetenegine sahiptir. Otomatik konusma tanima sistemleri açisindan gelismis ülkelerin dillerinde önemli ilerlemeler yapilmasina karsin Türkçe dili için henüz bu durum geçerli degildir. Bunun en önemli sebebi özellikle veri olusturma zorluklari ve bu verinin ilgili alana özel olarak islenmesi için yeterli arastirmanin yapilmamis olmasidir. Otomatik konusma tanima sistemlerinin çogu, akustik ve dil modeli saglamak için yapay sinir aglari tabanli hibrit gizli Markov modellerine (HIVIM) dayanmaktadir. Bununla birlikte bir dinamik programlama kod çözücüsü, belirli bir giris ses sinyali için en olasi sözcük dizisini bulmak ve çikarmak için bulmak ve çikarmak için bu olasiliklari kullanir. Bulusun tasarimi asamasinda yapilan saha arastirmalari ve analizler isiginda bulus için temel olusturacak asagidaki kullanici ihtiyaçlari tespit edilmistir: Cografi sartlar, bireyin fiziksel engelleri ve ekonomik yetersizlik gibi nedenlerle hastalarin, doktora ve saglik hizmetlerine erisim zorlugu yasamasi, Hastalarin çesitli nedenler ile (çalisan bireylerin gerekli zamani ayiramamasi, engelli ve yasli kisilerin hastaneye ulasimindaki sorunlar, hastanelerden hastalik kapma korkusu vs.) saglik kuruluslarina gitmekten imtina etmeleri, tedavilerini geciktirmeleri yahut hiç tedavi almamalari, akabinde ortaya çikan daha büyük saglik sorunlari, Yakin zamanda pandeminin etkisiyle uzaktan doktor hasta görüsmeleri için kullanilan video konferans yazilimlarinin saglik verisi güvenligi düsünülerek tasarlanmamis olmalari, doktor ve hasta arasinda interaktif bir tibbi iletisim kurulamamasi, yapilan görüsmenin saglik hizmeti vermek için yetersiz kalmasi, saglik verisinin mahremiyetinin saglanmiyor olmasi, Doktor hasta arasindaki kamu davalarinin sözlü beyanlar esas alinarak yürütülmesi ve destekleyici somut belge bulunmamasi, Doktor ve hasta verilerinin Kisisel Verileri Koruma Kanunu (KVKK) ve Avrupa Birligi Kisisel Verilerin Korunmasi (GDPR) standartlarina uygun olarak korunmasi kapsaminda mahremiyet yöntemlerinin gelisime açik olmasidir. Yapilan literatür arastirmasinda, Mayo Clinic Digital Health Care, SteadyMD, LiveHealth Online, Myhealth Clinic ve Vidyo Telemedicine sirketilerinin sagladigi çesitli platformlar ile karsilasilmistir. Platformlarda, uzaktan hasta izleme, görüntülü randevular, güvenli iletisim, çevrim içi hasta hizmetleri saglansa da otomatik bir sekilde klinik muayene raporu olusturma, akilli sözlesme tabanli veri paylasimi, doktor ve hasta duygu analizi, konusma metin dönüsümü ve blokzincir tabanli güvenli depolama sistemleri yer almamaktadir. Sonuç olarak teknigin bilinen durumunun asildigi, dezavantajlarinin giderildigi interaktif doktor muayene sistemi ve yöntemine ihtiyaç duyulmaktadir. Bulusun Kisa Açiklanmasi: Bulus, teknigin bilinen durumunun asildigi, dezavantajlarinin giderildigi, ilave olarak ekstra avantajlar içeren bir interaktif doktor muayene sistemi ve yöntemidir. Bulusun amaci, otomatik bir sekilde klinik muayene raporu olusturma, akilli sözlesme tabanli veri paylasimi, doktor ve hasta duygu analizi, konusma metin dönüsümü ve blokzincir tabanli güvenli depolama sistemleri hizmeti saglayan interaktif doktor muayene sistemi ve yöntemi ortaya koymaktir. Bulusa konu interaktif muayene sistemi ve yöntemi kapsaminda iki ana çözüm ve bu ana çözümler altinda birçok alt çözümler bulunmaktadir. Bulusun sagladigi birinci ana çözüm doktor hasta görüsmesinden alinan verilerden konusma metin dönüsümü teknikleriyle çok amaçli raporlar ve bilgiler çikarmak, ikinci ana çözüm ise güvenlik ve güvenilirlik amaçlarina ulasmak için kriptoloji tekniklerinin dagitik dosya sistemleri, blokzincir teknolojisi, akilli sözlesmeler ve sifir bilgi kanit algoritmalarinin kullanildigi bir yapi ortaya koymaktir. Birinci Ana Çözüm ve Alt Çözümleri: Bulus kapsaminda, interaktif bir doktor muayene sistemi gelistirmek için temel alinacak bir konuma metin dönüstürme uygulamasinin doktor hasta konusmasi verilerine göre özellestirilerek gelistirilmesi, konusma metin dönüsüm dosyasindan yapilandirilmis ve özetlenmis bir klinik muayene raporunun olusturulmasi, doktor hasta arasindaki duygu analizinin yapilmasi ve hastanin saglik okur yazarligina katki sunacak bilgilerin çikarimi saglanmaktadir. Dünya üzerinde yapilan çesitli arastirmalara göre doktorlarin hastalarla dogrudan etkilesime ayirabildikleri süre, günlerinin %13'ünden daha azini olusturmaktadir. Ayrica hastalara yönelik farkli klinik ortamlarda klinik belge yazma, hazirlama veya düzenleme için haftada harcadiklari ortalama sürelerin doktorlar için yaklasik 12 saat, hemsireler için yaklasik 11 saat ve terapistler için de yaklasik 11 saat oldugu gözlenmistir. Bu çalisma sürelerinin yaklasik Bulusta hedeflenen interaktif doktor muayene sistemi için otomatik konusma tanima açisindan doktor ve hasta arasindaki video görüsmesinden alinan ses verisinden metne dönüsüm için mevcut bir uygulamanin doktor hasta görüsmesindeki verilere göre özellestirilerek gelistirilmesine yönelik olarak transformer dil modellerinin dogrulanmasi, çapraz cümle modellemesi için iyilestirilmis egitim ve attention tabanli dil modelinin gerçek veri üzerinde gerçeklestirilmesi çalismalari yapilmaktadir. Bulusta LSTM-RNN ve Transformer dil modelleri ile degisken uzunluklu baglamlari islenmekte ve birden çok cümlenin birlestirilmesi ile olusturulan farkli dizi uzunlugu araliklarinda bu modellerin egitilmesi ve hibrit bir yapi elde edilmesi saglanmaktadir. Bulus ile özellikle doktor-hasta arasindaki konusmalara odakli tek etki alanli test verileri üzerinde iyi performans gösterecek sekilde egitilmis bir model elde edilmektedir. Her ne kadar genel olarak konusmadan metne dönüsüm isleminde benzerlik yüzdesi açisindan dönüsüm dogrulugu cinsiyetten bagimsiz olsa da çalisma kapsaminda gelistirilecek sistemin dogrulugunu garanti etmek için veri hazirlama asamasinda farkli cinsiyetlerden veriler kullanmak, gerçek zamanli konusmadan metne dönüsüm hedeflenmese de kelime dogrulugunu artirmak açisindan egitmenin egitimi önemli oldugunda alt yapiyi ona göre kurgulamak ve özellikle interaktif doktor muayene sistemi için farkli uzmanlik alanlarini da içeren veri setini olusturmak bulusun amaçlarindandir. Bunlara yönelik olarak yöntem kapsaminda Sequence-to-sequence attention modeli bir kodlayici, bir attention mekanizmasi ve bir kod çözücüden olusacak, çift yönlü LSTM-RNN'ler ile hem ileri hem de geri yöndeki bilgiler birlestirilecek, akustik bir model olarak kodlayicinin asil sinyali çevresel gürültüden ayirt etmesine katki verecek, attention mekanizmasinin daha kolay ögrenilmesi saglanacak, doktor hasta konusmasinin taninmasi için bir veri seti olusturulacak, gerçek kelime senaryolari ile tasarimlar yapilacak, gürültülü verilerine karsi daha saglam olan ve olabildigince fazla veri temizligi gerektirmeyen bir hibrit yaklasim ele alinarak doktor hasta görüsmelerine göre özellestirilmis bir konusmadan metin dönüsüm modülü gelistirilecektir. Sesteki degisimlerin ve özelliklerin tespitine dayali olarak konusmaci tanima uzun süredir bilinen bir çalisma olmakla birlikte, ses sinyali olarak alinan konusmanin konusma metin dönüsümü ile elde edilen metin dosyasi ile birlikte kullanilarak konusanlarin duygularini tespit etmek için bir duygu analizi modeli gelistirilecektir. Böylece doktor hasta arasindaki görüsmeden hem hastanin hem de özellikle doktorun hasta ile olan iliskilerin deki duygulari izlenebilecektir. Bu durum özellikle hastane gibi büyük ortamlarda bir doktorun bütün hastalariyla olan iliskileri arasindaki olumlu veya olumsuz duygu sürekliligi tespit edilerek raporlanabilecektir. Duygu analizi kismi kapsaminda taraflarin duygulari temel olarak pozitif, negatif ve nötr olarak siniflandirilacaksa da, bulus kapsaminda özellikle ses verisindeki belirli özelliklerden doktor veya hastanin siddet, hakaret ve kizginlik içeren yaklasimlarinin çikarilmasi ile desteklenmesi saglanmaya çalisilacaktir. Ikinci Ana Çözüm ve Alt Çözümleri: Bulusta güvenlik ve güvenilirlik amaçlarina ulasmak için kriptoloji tekniklerinin dagitik dosya sistemleri, blokzincir teknolojisi, akilli sözlesmeler ve sifir bilgi kanit algoritmalarinin kullanildigi bir yapi gelistirilmektedir. Görüsmeye ait rapor ve video kaydi için hasta ve doktorun riza (consent) vermesi gerekir. Bu da akilli sözlesmeler üzerinden gerçeklesecektir. Kayitlarda kisisel verilerin bulunmamasi için text veride anonimlestirme yöntemleri kullanilacaktir. Kisisel verilerin teyidi sifir bilgi kanit algoritmalari üzerinden gerçeklesecektir. Oturum kayitlari oturum anahtari kullanilarak (simetrik) sifrelenecektir. Oturum kayitlari bulut üzerinde kaydedilecektir. Bu süreçlerde dosyanin hash degeri ile dosyanin degismezligini garanti eden IPFS teknolojisi kullanilarak kayit olusturulmasi hedeflenmektedir. Bu kaydin degismezligini gösterecek URL adres bilgisi ve oturum anahtari (session key) blokzincirine kaydedilecek ve ayni zamanda hastaya da ulastirilacaktir. Oturum anahtarinin hastaya güvenli bir sekilde ulastirilabilmesi için hastanin genel (public) anahtari kullanilabilecegi gibi, kurumun sertifikalari üzerinden de güvenli veri iletimi saglanabilir. Bulus amaçlarina ulasabilmek için bugüne kadar gelistirilen E-saglik uygulamalari ve hasta takip sistemlerine ek olarak; muayene video kayitlarinin alinmasi, kayitlar içerisinden konusmadan yaziya (speech to text) yöntemi ile kaydedilen içerikte ilgili anahtar kelime ile arandiginda ilgili zamanina yönlendirme yapilabilecegi, görüsmeler sirasinda doktorun hastaya interaktif içerikler paylasarak etkin bir saglik hizmeti sunulabilecegi, kayitlarin dagitik dosya sistemi (lnterPlanetary File System - IPFS) ile bulut ortaminda saklanmasi, blokzincir teknolojisi, sifir bilgi kanit algoritmalari ve sifreleme protokolleri kullanilarak mahremiyetin ve riza tabanli erisimin saglandigi bir sistem gelistirilecektir. Bu sayede muayenelerde izlenebilirlik ve verilerin yüksek düzeyde korunmasi mümkün hale getirilecektir. Sekillerin Açiklanmasi: Bulus, ilisikteki sekillere atifta bulunularak anlatilacaktir, böylece bulusun özellikleri daha net anlasilacaktir. Ancak, bunun amaci bulusu bu belli düzenlemeler ile sinirlamak degildir. Tam aksine, bulusun ilisikteki istemler tarafindan tanimlandigi alani içine dâhil edilebilecek bütün alternatif, degisiklik ve denkliklerinin kapsanmasi da amaçlanmistir. Gösterilen ayrintilar, sadece mevcut bulusun tercih edilen düzenlemelerinin anlatimi amaciyla gösterildigi ve hem yöntemlerin sekillendirilmesinin, hem de bulusun kurallari ve kavramsal özelliklerinin en kullanisli ve kolay anlasilir tanimini saglamak amaciyla sunulduklari anlasilmalidir. Bu çizimlerde; Sekil-1 Bulus konusu interaktif doktor muayene sistemi temsili görünümüdür. Bu bulusun anlasilmasina yardimci olacak sekiller ekli resimde belirtildigi gibi numaralandirilmis olup isimleri ile beraber asagida verilmistir. Referanslarin Açiklanmasi: .Video konferans ve ses kayit platformlari 11.Hasta 12. Doktor 13.Medya sunucusu .Riza tabanli veri paylasim sistemi .Güvenli depolama servisi 31 .Depolama alani 32.Kurum sertifikasi 40.Sesin metine dönüstürülmesi ve indeksleme modülü 41.Medya kayit dosyasi 42.Ses kaydi 43. Heterojen veri 44.Ön isleme 45. Konusma-metin dönüsüm yazilimi 46.Özellestirme modülü 47.8unucu 48.Indeksleme ve konusma-metin dönüsüm dosyasi 50.Analiz ve raporlama modülü 51 .Algoritmalar 52.Analiz ve rapor çiktilari Bulusun Açiklanmasi: Bu detayli açiklamada bulus konusu interaktif muayene sistemi ve yöntemi sadece konunun daha iyi anlasilmasina yönelik olarak, hiçbir sinirlayici etki olusturmayacak örneklerle açiklanmaktadir. Tarifnamede hastalarin (11) doktorlara (12) uzaktan erisim ile muayene olmalarini saglayan bir interaktif muayene sistemi ve yöntemi anlatilmaktadir. Tarifname konusu bulusta doktor (12) ve hastanin (11) interaktif muayenesine ses ve görüntü aktarimi, hastanin (11) akilli cihazi, doktorun (12) akilli cihazi ve bir medya sunucusundan (13) olusan video konferans ve ses kayit platformlari (10) ile saglanmaktadir. Video konferans ve ses kayit platformlarinda (10) WebRTC teknolojisi kullanilacaktir. Hasta ile doktor arasindaki video aramasinda ses ve görüntü trafigini yönetenk bir medya sunucusu (13) (SFU media server birimi) kullanilmakta, bu sunucu ile yapilan trafikler SSL ile sifrelenmektedir. Bulusta riza tabanli veri paylasim sistemleri (20) kullanilmaktadir. Görüsmeye ait rapor ve Video kaydi için hasta (11) ve doktorun (12) riza (consent) vermesi gerekmektedir. Bu da akilli sözlesmeler üzerinden gerçeklestirilmektedir. Kayitlarda kisisel verilerin bulunmamasi için text verilerinde anonimlestirme yöntemleri kullanilmaktadir. Kisisel verilerin teyidi sifir bilgi kanit algoritmalari üzerinden gerçeklesmektedir. Sonradan bu kayitlara ulasmak için doktor hasta rizasi aranmaktadir. Bunun sartlari ilgili protokole göre akilli anlasmada tanimlanmaktadir. Bu sartlar saglandiginda akilli kontrat ilgili kayda erisimi saglayan URL bilgisini ve simetrik sifrelemede kullanilan oturum anahtarinin Iletilmesi gerçeklestirilebilecegi gibi; bulusta hedef bu bilgilerin kullanilarak web üzerinden izleme (preview) saglanmasidir. Bulusta lPFS depolama alanlarinin (31) kurum sertifikalari (32) üzerinden güvenli veri paylasimlarinin yapildigi güvenli depolama servisi (30) yer almaktadir. Güvenli depolama servisinde (30) dagitik dosya sistemi olarak lPFS ve kriptoloji kullanilmaktadir. Oturum kayitlari bulut depolama alanlari (31) üzerinde kaydedilmektedir. Özellikle rapor ve analiz dokümanlari için lPFS üzerinde bir kayit olusturulmasi hedeflenmektedir. Bu kaydin degismezligini gösterecek URL adres bilgisi ve oturum anahtari (session key) blokzincirine kaydedilmekte ve ayni zamanda hastaya ulastirilmaktadir. (email veya kullanici hesabi üzerinden). Oturum anahtarinin hastaya güvenli bir sekilde ulastirilabilmesi için hastanin genel (public) anahtari olmalidir. Bu tür bir anahtar olmamasi durumunda; kurumun sertifikalari (32) üzerinden güvenli iletim saglanabilmektedir. Bulusa konu interaktif sistemde, sesin metine dönüstürülmesi ve indeksleme modülü (40) bulunmaktadir. Bu modül (40) hasta (11) ve doktor (12) arasinda geçeklestirilen muayene medya kayit dosyasini (41) alarak içerisindeki ses kaydini (42) muayene öncesi bilinen heterojen veriler (43) ile birlestirmekte, ön islemeden (44) geçirip bir konusma-metin dönüsüm yazilimi (45) ile metne dönüstürmektedir. Konusma metin dönüsümü temel olarak ses dizilerinin ilgili dilde taninabilir metin çiktisina eslenmesini saglayan istatistiksel modellerden olusur. Dolayisi ile otomatik konusma tanima sistemleri, bir dil modeli, bir telaffuz modeli ve bir akustik model içerirler. Modeller birden fazla konusmaci ve genisletilmis kelime hazinesine sahip dil modelleri ile konusma verileriyle uygun bir sekilde egitildikten sonra konusma metin dönüsümünün dogrulugu yükselir. Istatistiksel olarak genelde konusma metin dönüsümünün performansi veya dogrulugu kelime hata orani ile ölçülür. Bir konusma tanima modelini egitirken en önemli nokta, veri kümesinin, sesin ve sözlügün kalitesidir. Özellikle doktor hasta görüsmelerinin konusma metin dönüsümü sirasinda su temel asamalar izlenebilir: o Doktor-hasta görüsmesinin interaktif doktor muayene sisteminden ses kaydi alinarak sunucuya kaydedilir ve ilgili platforma yüklenir, . Konusma tanima (konusma metin dönüsümü) motorunda doktor hasta ses verileriyle iyilestirilen akustik model sesleri analiz eder, - Dönüstürülen metin verileriyle iyilestirilen sözlük modeli sesleri dogru kelimelerle eslestirir, o Özellestirme modülünde (46) özel dil modeli ile sonuçlar yapilandirilir ve tüm sözcüklerin bir güven puani, kullanici kimligi ve zaman damgasina sahip oldugu bir ham metin dosyasi elde edilir. Bulusta görüsme sonrasi otomatik olarak analizler ve raporlamalar çikaran bir analiz ve raporlama modülü (50) bulunmaktadir. Bu modülde (50) indeksleme çalismalari yapilarak elde edilen indeksleme ve konusma-metin dönüsüm dosyasi (48) algoritmalardan (51) geçirilerek bilgi çikarimi, metin özetleme, hasta saglik okuryazarligi raporu, farkli formatlarda klinik muayene raporlari, doktor hasta duygu analizi gibi analiz ve raporlar (52) çikti olarak hazirlanmaktadir. Bulusta hasta ile doktorun çevrimiçi interaktif bir sekilde görüsmeleri için video konferans platformunun olusturulmasi saglanacaktir, video aramasinda ses ve görüntü trafigini yönetecek bir sunucu (SFU media server birimi) kullanilacak, bu sunucu ile yapilan trafikler SSL ile sifrelenecektir. Video konferans görüsmelerine doktor (12), hasta (11), doktor asistani ve benzeri katilimcilar olabildigi gibi bilgisayar ve telefon kameralari haricinde bir tibbi cihazin ucundaki ip kamera görüntüsünün de RTSP protokolü ile ag üzerinden görüsmeye dahil edilebilmesi saglanacaktir. Örnegin; bir asistan doktorun, yatalak bir hastayi evinde muayene ederken basit bir endoskopik cihaz ile hastanin agiz ve bogazindaki görüntüleri online bir sekilde konferanstaki profesörüne gösterebilmesi saglanacaktir. Burada illa tibbi bir cihaza ihtiyaç olmadan USB harici 2. bir kameranin da yayina dahil edilmesi mümkündür. Bulustaki riza tabanli veri paylasim sisteminde (20) Video konferans görüsmelerinde iki kisiden daha fazla katilimcinin görüsmeye katilmasi söz konusu oldugunda örnegin; doktor asistani gibi 3. bir kisinin görüsmeye dahil olmasi gerektiginde moderatör yetkili doktorun (12), katilimci olan hastasindan (11) onay almasi gerekmektedir. Bu platformda hasta (1'i) onayi verilse dahi doktor asistani ile hastanin görüsme sirasinda birbirlerini görmeleri engellenecektir. Sonradan bu kayitlara ulasmak için doktor (12) ve hasta (11) rizasi aranacaktir. Bunun sartlari ilgili protokole göre akilli anlasmada tanimlanacaktir. Bu sartlar saglandiginda akilli kontrat ilgili kayda erisimi saglayacak URL bilgisini ve simetrik sifrelemede kullanilan oturum anahtarinin Iletilmesi gerçeklestirilebilecegi gibi; bulusta hedef bu bilgilerin kullanilarak web üzerinden izleme (preview) saglanmasidir. Doktor (12) ve hasta (11) görüsmesinden sonra konusmalar metne dönüstürülecektir. Konusma metin dönüsümü temel olarak ses dizilerinin ilgili dilde taninabilir metin çiktisina eslenmesini saglayan istatistiksel modellerden olusur. Dolayisi ile otomatik konusma tanima sistemleri, bir dil modeli, bir telaffuz modeli ve bir akustik model içerirler. Modeller birden fazla konusmaci ve genisletilmis kelime hazinesine sahip dil modelleri ile konusma verileriyle uygun bir sekilde egitildikten sonra konusma metin dönüsümünün dogrulugu yükselir. Istatistiksel olarak genelde konusma metin dönüsümünün performansi veya dogrulugu Kelime Hata Orani ile ölçülür. Bir konusma tanima modelini egitirken en önemli nokta, veri kümesinin, sesin ve sözlügün kalitesidir. Yöresel agiz farkliliklari ve tibbi kelimelerin telaffuzunun zor olmasindan dolayi hem doktora hem hastaya görüsme sonrasi bu kelimeler için "burada bunu mu demek istediniz?" seklinde onay ekranlari çikartilarak sesin metne dönüsümünde dogruluk oraninin arttirilmasi hedeflenmektedir. Metin üzerindeki kelimelerin ses verileri ile eslestirilerek indekslenmesi için doktor-hasta görüsmesinin interaktif doktor muayene sisteminden ses kaydi alinarak sunucuya kaydedilir ve ilgili platforma yüklenir, Konusma tanima (konusma metin dönüsümü) motorunda doktor hasta ses verileriyle iyilestirilen akustik model sesleri analiz eder, dönüstürülen metin verileriyle iyilestirilen sözlük modeli sesleri dogru kelimelerle eslestirir, özel dil modeli ile sonuçlar yapilandirilir ve tüm sözcüklerin bir güven puani, kullanici kimligi ve zaman damgasina sahip oldugu bir ham metin dosyasi elde edilir. Burada indekslemeden kasit doktor-hasta muayene görüsmesinde migren kelimesinden bahsedildiginde taraflardan biri, bu video kaydini tekrar dinlemek istediginde ve sadece migrenden bahsedilen kisma ihtiyaç duydugunda migren kelimesini aratarak kayit üzerinde bu kelimenin geçtigi kisimlara hizli bir sekilde ulasabilecektir. Interaktif doktor muayene sisteminde, doktor (12) hasta (11) görüsmesindeki seslerin metne dönüstürülmesinden sonra elde ettigimiz metin üzerinde siniflandirma, özetleme ve benzeri yapilarak konusma-metin dönüsümü, bilgi özetinin çikarimi, bilgi çikarimi, klinik muayene raporlarinin olusturulmasi, ayni zamanda hasta veya doktorun duygu analizlerinin çikartilmasi saglanacaktir. Metin içerisinde geçen bazi özel tibbi kelimelerin analizinin çikartilarak doktora ipucu ifadeler sunulmasi hedeflenmektedir. Örnegin; hastanin görüsme sirasinda telaffuz etmis oldugu "bas agrisi", "bulanti", "bas dönmesi" gibi ifadeler siniflandirilarak doktora agri tanimi gibi ipucu ifadeler gösterilecektir. Görüsme sonrasinda duygu analizini çikartmak için hasta veya doktorun sik kullanmis oldugu kelimelerin pozitif, negatif veya nötr olarak siniflandirilarak kisinin o an sinirli mi, stresli mi oldugu tespit edilecektir. Ayni zamanda sesin genlik ve frekans bilgileri alinarak desibelini ölçerek de duygu durumu hakkinda bilgi sahibi olunacaktir. TR TR TR DESCRIPTION INTERACTIVE DOCTOR EXAMINATION SYSTEM AND METHOD Technological Field: Invention, creation of online interactive meeting platforms for use in the health sector, emotional analysis of doctor-patient interviews, data labeling by transcribing the voice from speech to text during the examination, and the creation of a structured multi-purpose examination report. making medical data accessible based on the patient's consent, preserving privacy with a high-security common cloud platform (SaaS) by using blockchain technology and encryption protocols, developing a unique system where a different doctor can access the interview records with common permission or public decisions, It is about a system and method that makes access records to this content reportable, enables the doctor to provide visual and audio information to the patient during the examination, or to share interactive content by collecting information from the patient. With the system developed within the scope of the invention subject to the description, both doctor, hospital, patient examination and management processes will be completely digitalized, the individual can be observed independently thanks to patient and disease follow-up data storage, and in case the communication and operational problems experienced during the examination process turn into a public lawsuit, all parties and the public will be provided with impartial concrete information. will be able to provide data. Doctors will be provided with the opportunity to review and report through easy retrospective scanning during the patient follow-up process. In addition, it may provide a basis for the stored data to be used as concrete evidence in lawsuits between the patient and the doctor. Within the scope of the invention, there is a module that includes the conversion of speech into text using the audio data of the conversation between the doctor and the patient, the creation of a clinical examination report using the heterogeneous data obtained during this interactive examination, speaker recognition and speaker emotion analysis components. Known Status of the Technology: In recent years, due to the impact of the pandemic in the world, work and meetings have been carried out remotely in most sectors. The epidemic period has proven that many jobs can be done remotely. As a result of the increasing population and developing technology, it has been observed that some health examinations can be performed remotely. The invention subject to the description describes a method and system that enables the examination between patients and doctors to be carried out safely, efficiently and effectively in a virtual environment. There are many video calling solutions available, but recording e-health video connections between patients and doctors causes operational and legal difficulties and does not meet legal requirements. Records of remotely administered treatments contain private patient data and must be processed and stored accordingly. In many European countries, medical data cannot leave the country in question and records must be stored securely in a cloud solution located in that country. Since most providers of video conferencing solutions used today are US-based companies, it has been observed that an external cloud service does not meet the legal requirements. In our country, hospital infrastructures are not suitable and sufficient for recording treatments and archiving them securely. Since the existing solutions were developed for the purpose of online interviews and meetings, they lack the tools that will enable the medical examination processes to be carried out, the doctor to provide an interactive medical service to the patient, and the record tracking with retrospective data labeling method. E-Health and Telemedicine procedures are treatment methods recognized by European health legislation. With the issue of transparency gaining importance in medical treatments, it is aimed to increase the quality of services offered to patients. In this process; Local treatments and treatments with remote imaging must be recorded. Records are also important from a legal perspective. Patients who are not satisfied with the treatment and complain can take legal action. In such cases, medical records can be used as evidence in lawsuits. The Council of Europe has been working on the protection of personal data since the 1970s and considers individuals' health data as privacy. Accordingly, most countries are planning to make it mandatory to record all treatments performed in hospitals or remotely. Therefore, it is expected that the legal changes to be made in Europe and in our country in the near future will accept the records as legal evidence and make it mandatory to archive these records in hospitals and health centers for decades. However, the current infrastructures of today's hospitals are not suitable and sufficient for recording all treatments and archiving them securely. There are a wide variety of services for speech-to-text conversion. The main ones are "Google Web Speech API" developed by Google, "Watson" created by IBM and "Azure Speech Services" created by Microsoft. Python's "SpeechRecognition" library supports different APls for speech recognition and voice-to-text conversion, including Google, IBM and Microsoft Services. They also have the ability to adapt to a different voice accent or sound pattern. Although significant progress has been made in the languages of developed countries in terms of automatic speech recognition systems, this is not yet valid for the Turkish language. The most important reason for this is the difficulties in creating data and the lack of sufficient research to process this data specifically for the relevant field. Most automatic speech recognition systems rely on artificial neural networks-based hybrid hidden Markov models (HIVIM) to provide acoustic and language models. A dynamic programming decoder, however, uses these probabilities to find and extract the most likely sequence of words for a given input audio signal. In the light of the field research and analyzes carried out during the design phase of the invention, the following user needs were identified that will form the basis for the invention: Patients have difficulties in accessing doctors and health services due to reasons such as geographical conditions, physical disabilities of the individual and economic inadequacy, Patients' difficulty in accessing doctors and health services for various reasons (working individuals not being able to spare the necessary time). , problems in transportation of disabled and elderly people to hospitals, fear of catching diseases from hospitals, etc.), refraining from going to health institutions, delaying their treatment or not receiving treatment at all, and the resulting bigger health problems, Recently, due to the effect of the pandemic, video conferencing software used for remote doctor-patient meetings. They are not designed with health data security in mind, no interactive medical communication can be established between the doctor and the patient, the interview is insufficient to provide health care, the privacy of health data is not ensured, public lawsuits between the doctor and the patient are conducted on the basis of oral statements and there is no concrete supporting document, the doctor and the patient Privacy methods are open to improvement within the scope of protecting patient data in accordance with the Personal Data Protection Law (KVKK) and the European Union Personal Data Protection (GDPR) standards. In the literature research, various platforms provided by Mayo Clinic Digital Health Care, SteadyMD, LiveHealth Online, Myhealth Clinic and Vidyo Telemedicine companies were encountered. Although the platforms provide remote patient monitoring, video appointments, secure communication, online patient services, they do not include automatic clinical examination report creation, smart contract-based data sharing, doctor and patient emotion analysis, speech-to-text conversion and blockchain-based secure storage systems. As a result, there is a need for an interactive doctor examination system and method that exceeds the known state of the technique and eliminates its disadvantages. Brief Description of the Invention: The invention is an interactive doctor examination system and method that exceeds the known state of the technique, eliminates its disadvantages, and includes additional advantages. The purpose of the invention is to introduce an interactive doctor examination system and method that provides automatic clinical examination report generation, smart contract-based data sharing, doctor and patient emotion analysis, speech-to-text conversion and blockchain-based secure storage systems. Within the scope of the interactive examination system and method subject to the invention, there are two main solutions and many sub-solutions under these main solutions. The first main solution provided by the invention is to extract multi-purpose reports and information from the data received from the doctor-patient interview with speech-to-text conversion techniques, and the second main solution is a structure in which cryptology techniques, distributed file systems, blockchain technology, smart contracts and zero knowledge proof algorithms are used to achieve security and reliability goals. is to reveal. First Main Solution and Sub-Solutions: Within the scope of the invention, developing a text to text conversion application as a basis for developing an interactive doctor examination system by customizing it according to doctor-patient conversation data, creating a structured and summarized clinical examination report from the speech-text conversion file, emotional analysis between the doctor and the patient. It is ensured that information is performed and information that will contribute to the patient's health literacy is extracted. According to various studies conducted around the world, the time that doctors can devote to direct interaction with patients constitutes less than 13% of their days. It was also observed that the average time per week patients spent writing, preparing, or editing clinical documents in different clinical settings was approximately 12 hours for doctors, approximately 11 hours for nurses, and approximately 11 hours for therapists. Validation of transformer language models and improved training for cross-sentence modeling for the development of an existing application for converting the audio data received from the video conversation between the doctor and the patient into text, in terms of automatic speech recognition for the interactive doctor examination system targeted in the invention, by customizing it according to the data in the doctor-patient conversation. Studies are being carried out to implement the and attention-based language model on real data. In the invention, variable length contexts are processed with LSTM-RNN and Transformer language models, and these models are trained in different sequence length ranges created by combining multiple sentences and a hybrid structure is achieved. With the invention, a model that is trained to perform well on single-domain test data focused especially on conversations between doctor and patient is obtained. Although the conversion accuracy in terms of the percentage of similarity in the speech-to-text conversion process is generally independent of gender, using data from different genders in the data preparation phase to guarantee the accuracy of the system to be developed within the scope of the study, although real-time speech-to-text conversion is not targeted, training of the instructor is important in terms of increasing word accuracy. The aims of the invention are to construct the structure accordingly and to create a data set that includes different areas of expertise, especially for the interactive doctor examination system. For these purposes, within the scope of the method, the Sequence-to-sequence attention model will consist of an encoder, an attention mechanism and a decoder, both forward and reverse information will be combined with bidirectional LSTM-RNNs, and as an acoustic model, the main signal of the encoder will be separated from environmental noise. The attention mechanism will be learned more easily, a data set will be created for the recognition of doctor-patient speech, designs will be made with real word scenarios, a hybrid approach that is more robust against noisy data and does not require as much data cleaning as possible will be taken, based on doctor-patient interviews. A customized speech-to-text conversion module will be developed. Although speaker recognition based on the detection of changes and features in the voice is a long-known study, an emotion analysis model will be developed to detect the emotions of speakers by using the speech received as a voice signal together with the text file obtained by speech-text conversion. Thus, the emotions of both the patient and especially the doctor in their relationship with the patient can be monitored from the conversation between the doctor and the patient. This situation can be reported by detecting the continuity of positive or negative emotions between a doctor's relationships with all his patients, especially in large environments such as hospitals. Although the emotions of the parties will be basically classified as positive, negative and neutral within the scope of the emotion analysis part, within the scope of the invention, it will be tried to support the doctor or patient's approaches containing violence, insults and anger by removing certain features in the voice data. Second Main Solution and Sub-Solutions: In the invention, a structure is developed in which cryptology techniques, distributed file systems, blockchain technology, smart contracts and zero knowledge proof algorithms are used to achieve security and reliability goals. The patient and the doctor must give consent for the interview report and video recording. This will happen through smart contracts. Anonymization methods will be used for text data to avoid personal data in the records. Confirmation of personal data will occur through zero-knowledge proof algorithms. Session records will be encrypted (symmetrically) using the session key. Session recordings will be saved on the cloud. In these processes, it is aimed to create a record using the hash value of the file and IPFS technology, which guarantees the immutability of the file. The URL address information and session key, which will show the immutability of this record, will be recorded in the blockchain and will also be delivered to the patient. In order to securely deliver the session key to the patient, the patient's public key can be used, or secure data transmission can be achieved through the institution's certificates. In addition to the E-health applications and patient tracking systems developed so far in order to achieve the aims of the invention; Examination video recordings can be taken, when the content recorded with the speech to text method is searched with the relevant keyword within the records, you can be directed to the relevant time, the doctor can provide an effective health service by sharing interactive content with the patient during the interviews, the records can be stored in a distributed file system (lnterPlanetary File System - A system that ensures privacy and consent-based access will be developed by using cloud storage (IPFS), blockchain technology, zero knowledge proof algorithms and encryption protocols. In this way, traceability and high level of data protection during examinations will be made possible. Explanation of Drawings: The invention will be explained by referring to the attached figures, so that the features of the invention will be understood more clearly. However, this is not intended to limit the invention to these particular embodiments. On the contrary, it is intended to cover all alternatives, modifications and equivalences that can be included within the scope of the invention as defined by the attached claims. It should be understood that the details shown are for the sole purpose of illustrating preferred embodiments of the present invention and are presented for the purpose of providing the most useful and easily understandable description of both the embodiment of the methods and the rules and conceptual features of the invention. In these drawings; Figure-1 is the representative view of the interactive doctor examination system that is the subject of the invention. The figures that will help understand this invention are numbered as indicated in the attached picture and are given below with their names. Disclosure of References: . Video conferencing and audio recording platforms 11. Patient 12. Doctor 13. Media server. Consent based data sharing system. Secure storage service 31 . Storage space 32. Institution certificate 40. Conversion of voice to text and indexing module 41. Media recording file 42. Voice recording 43. Heterogeneous data 44. Pre-processing 45. Speech-to-text conversion software 46. Customization module 47.8server 48. Indexing and speech-to-text text conversion file 50.Analysis and reporting module 51. Algorithms 52. Analysis and report outputs Disclosure of the Invention: In this detailed explanation, the interactive examination system and method of the invention are explained only for a better understanding of the subject, with examples that will not create any limiting effect. The specification describes an interactive examination system and method that allows patients (11) to be examined by doctors (12) with remote access. In the invention subject to the description, audio and video transmission to the interactive examination of the doctor (12) and the patient (11) is achieved through video conferencing and audio recording platforms (10) consisting of the patient's (11) smart device, the doctor's (12) smart device and a media server (13). is provided. WebRTC technology will be used in video conferencing and audio recording platforms (10). A media server (13) (SFU media server unit) is used to manage the audio and video traffic in the video call between the patient and the doctor, and the traffic with this server is encrypted with SSL. In the invention, consent-based data sharing systems (20) are used. The patient (11) and the doctor (12) must give consent for the interview report and video recording. This is achieved through smart contracts. Anonymization methods are used for text data to avoid personal data in the records. Confirmation of personal data takes place through zero-knowledge proof algorithms. Doctor-patient consent is required to access these records later. The conditions for this are defined in the smart agreement according to the relevant protocol. When these conditions are met, the smart contract can transmit the URL information that provides access to the relevant record and the session key used in symmetric encryption; The aim of the invention is to provide preview on the web using this information. The invention includes a secure storage service (30) through which secure data sharing of lPFS storage areas (31) is made through institution certificates (32). lPFS and cryptology are used as distributed file systems in the secure storage service (30). Session recordings are saved on cloud storage areas (31). It is aimed to create a record on lPFS, especially for reports and analysis documents. The URL address information and session key, which will show the immutability of this record, are recorded in the blockchain and are also delivered to the patient. (via email or user account). In order for the session key to be delivered to the patient securely, the patient must have a public key. In case there is no such key; Secure transmission can be ensured through the institution's certificates (32). The interactive system subject to the invention includes a voice-to-text conversion and indexing module (40). This module (40) takes the examination media recording file (41) between the patient (11) and the doctor (12), combines the voice recording (42) in it with the heterogeneous data (43) known before the examination, pre-processes it (44) and creates a conversation. It converts it to text with text conversion software (45). Speech-to-text conversion basically consists of statistical models that enable the mapping of audio sequences into recognizable text output in the relevant language. Therefore, automatic speech recognition systems include a language model, a pronunciation model and an acoustic model. Once models are appropriately trained on speech data from multiple speakers and language models with expanded vocabularies, the accuracy of speech-to-text conversion increases. Statistically, the performance or accuracy of speech-to-text conversion is generally measured by the word error rate. The most important consideration when training a speech recognition model is the quality of the dataset, voice, and dictionary. Especially during the speech-to-text conversion of doctor-patient conversations, the following basic stages can be followed: o The sound of the doctor-patient conversation is recorded from the interactive doctor examination system, recorded on the server and uploaded to the relevant platform. In the speech recognition (speech-to-text conversion) engine, the doctor analyzes the acoustic model sounds improved with patient voice data, - The dictionary model improved with the converted text data matches the sounds with the correct words, o In the customization module (46) the results are configured with the special language model and all words are given a confidence score, A raw text file with the user ID and timestamp is obtained. The invention includes an analysis and reporting module (50) that automatically generates analyzes and reports after the meeting. In this module (50), the indexing and speech-text conversion file (48) obtained by indexing studies is passed through algorithms (51) to produce analysis and reports such as information extraction, text summarization, patient health literacy report, clinical examination reports in different formats, doctor-patient emotion analysis. (52) is prepared as output. In the invention, a video conferencing platform will be created for the patient and the doctor to have an interactive online conversation. A server (SFU media server unit) will be used to manage the audio and video traffic in the video call, and the traffic with this server will be encrypted with SSL. Video conference calls can include doctors (12), patients (11), doctor's assistants and similar participants, and the IP camera image at the end of a medical device, in addition to computer and phone cameras, can also be included in the conversation over the network with the RTSP protocol. For example; While examining a bedridden patient at home, an assistant doctor will be able to show images of the patient's mouth and throat online to his professor at the conference with a simple endoscopic device. Here, it is possible to include a second non-USB camera without the need for a medical device. In the consent-based data sharing system (20) of the invention, when more than two participants participate in video conference calls, for example; When a third person, such as a doctor's assistant, needs to be involved in the interview, the doctor authorized as the moderator (12) must obtain approval from the patient (11) who is the participant. In this platform, even if (1) patient's consent is given, the doctor's assistant and the patient will be prevented from seeing each other during the meeting. The consent of the doctor (12) and the patient (11) will be required to access these records later. The conditions for this will be defined in the smart agreement according to the relevant protocol. When these conditions are met, the smart contract can transmit the URL information that will provide access to the relevant record and the session key used in symmetric encryption; The aim of the invention is to provide preview on the web using this information. After the meeting between the doctor (12) and the patient (11), the conversations will be converted into text. Speech-to-text conversion basically consists of statistical models that enable the mapping of audio sequences into recognizable text output in the relevant language. Therefore, automatic speech recognition systems include a language model, a pronunciation model and an acoustic model. Once models are appropriately trained on speech data from multiple speakers and language models with expanded vocabularies, the accuracy of speech-to-text conversion increases. Statistically, the performance or accuracy of speech-to-text conversion is generally measured by the Word Error Rate. The most important point when training a speech recognition model is the quality of the dataset, voice and dictionary. Due to local dialect differences and the difficulty in pronouncing medical words, both the doctor and the patient are asked after the interview, "Is this what you meant here?" It is aimed to increase the accuracy rate in converting voice to text by removing confirmation screens such as: In order to index the words on the text by matching them with the voice data, the sound recording of the doctor-patient conversation is taken from the interactive doctor examination system, recorded on the server and uploaded to the relevant platform. In the speech recognition (speech-to-text conversion) engine, the doctor analyzes the acoustic model sounds improved with the patient voice data, and improves the sound with the converted text data. The dictionary model matches the sounds with the correct words, the results are structured with the custom language model and a raw text file is obtained where all words have a confidence score, user ID and timestamp. What is meant by indexing here is that when the word migraine is mentioned in the doctor-patient examination conversation, when one of the parties wants to listen to this video recording again and only needs the part where migraine is mentioned, they will be able to quickly access the parts of the recording where this word is mentioned by searching for the word migraine. In the interactive doctor examination system, after converting the voices of the doctor (12) and the patient (11) conversation into text, classification, summarization and so on are performed on the resulting text, speech-text conversion, information summary extraction, information extraction, creation of clinical examination reports, and also the patient or doctor's Sentiment analysis will be provided. It is aimed to provide clues to the doctor by analyzing some special medical words in the text. For example; Expressions such as "headache", "nausea", "dizziness" uttered by the patient during the interview will be classified and clue expressions such as the definition of pain will be shown to the doctor. After the interview, the words frequently used by the patient or the doctor will be classified as positive, negative or neutral in order to conduct an emotional analysis and it will be determined whether the person is angry or stressed at that moment. At the same time, information about the emotional state will be obtained by measuring the decibel level of the sound by obtaining amplitude and frequency information. TR TR TR
Publications (1)
| Publication Number | Publication Date |
|---|---|
| TR2022005022A2 true TR2022005022A2 (en) | 2023-08-21 |
Family
ID=
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11494735B2 (en) | Automated clinical documentation system and method | |
| Heydon | The language of police interviewing | |
| US9953147B2 (en) | Computer-implemented system and method for correlating activity within a user interface with special information | |
| JP4644403B2 (en) | Apparatus, method, and manufactured article for detecting emotion of voice signal through analysis of a plurality of voice signal parameters | |
| US7383183B1 (en) | Methods and systems for protecting private information during transcription | |
| US20190057760A1 (en) | Automated medical note generation system utilizing text, audio and video data | |
| Maas et al. | The Care2Report System: Automated Medical Reporting as an Integrated Solution to Reduce Administrative Burden in Healthcare. | |
| USH2269H1 (en) | Automated speech translation system using human brain language areas comprehension capabilities | |
| US20230273945A1 (en) | Systems and methods for deposition proceedings | |
| US12242643B2 (en) | System and method for secure transcription generation | |
| Cho | Interpreters as translation machines: Telephone interpreting challenges as awareness problems | |
| US20250308513A1 (en) | System and method for secure transcription generation | |
| Venkatraman et al. | Development and validation of sentences in Tamil for psychoacoustic evaluation of voice using the Consensus Auditory-Perceptual Evaluation of Voice | |
| Luo et al. | Assessing the effectiveness of automatic speech recognition technology in emergency medicine settings: a comparative study of four AI-powered engines | |
| Watt et al. | Forensic phonetics and automatic speaker recognition: The complementarity of human-and machine-based forensic speaker comparison | |
| CN115424618A (en) | A voice interaction device for electronic medical records based on machine learning | |
| Debnath et al. | Study of speech enabled healthcare technology | |
| Elhadad et al. | Improved healthcare diagnosis accuracy through the application of deep learning techniques in medical transcription for disease identification | |
| Durling et al. | Speech recognition use in healthcare applications | |
| CN118588088A (en) | Intelligent conference speech recognition method and computer device | |
| Shirvanian et al. | Short voice imitation man-in-the-middle attacks on Crypto Phones: Defeating humans and machines | |
| TR2022005022A2 (en) | INTERACTIVE DOCTOR EXAMINATION SYSTEM AND METHOD | |
| CN117558444A (en) | Mental disease diagnosis system based on digital phenotype | |
| Martika et al. | Conversation analysis | |
| Terada et al. | Documentation and Annotation Guidelines of CoNNAR |