RU2846045C1 - System for study of subjective refraction - Google Patents
System for study of subjective refractionInfo
- Publication number
- RU2846045C1 RU2846045C1 RU2022134675A RU2022134675A RU2846045C1 RU 2846045 C1 RU2846045 C1 RU 2846045C1 RU 2022134675 A RU2022134675 A RU 2022134675A RU 2022134675 A RU2022134675 A RU 2022134675A RU 2846045 C1 RU2846045 C1 RU 2846045C1
- Authority
- RU
- Russia
- Prior art keywords
- image
- subject
- eye
- input information
- test subject
- Prior art date
Links
Abstract
Description
Перекрестная ссылка на родственные заявкиCross-reference to related applications
[0001] Данной заявкой заявлен приоритет по патентной заявке США № 63/044,910, поданной 26 июня 2020 года и озаглавленной "SUBJECTIVE REFRACTION EXAM SYSTEM" (СИСТЕМА ДЛЯ ИССЛЕДОВАНИЯ СУБЪЕКТИВНОЙ РЕФРАКЦИИ), полное раскрытие которой настоящим включено посредством ссылки.[0001] This application claims priority to U.S. Patent Application Ser. No. 63/044,910, filed June 26, 2020, entitled "SUBJECTIVE REFRACTION EXAM SYSTEM," the entire disclosure of which is hereby incorporated by reference.
Область техникиField of technology
[0002] Настоящее раскрытия в целом относится к системам и способам для предоставления выполняемых самостоятельно медицинских рекомендаций, а в частности, относится к системам для самостоятельного исследования субъективной рефракции для измерения рефракционных нарушений в глазах.[0002] The present disclosure relates generally to systems and methods for providing self-administered medical advice, and in particular relates to systems for self-administered subjective refraction testing for measuring refractive errors in the eyes.
Уровень техникиState of the art
[0003] Рефракция, также называемая проверкой зрения или исследованием глаз, обычно назначается офтальмологом, чтобы определять, нуждается ли пациент (или нуждается ли он в смене) в рецептурных линзах, таких как очки и контактные линзы. Врач часто представляет изображения, символы или слова пациенту, который дает комментарии о резкости или размытости своего зрения, и эта информация используется для определения предписания для пациента. В некоторых случаях врачи могут иметь оборудование, сконфигурированное, чтобы сканировать или иначе измерять характеристики хрусталика пациента и других структур глаза, чтобы получать предписание. Однако это означает, что предписания трудно получить без компетенции и опыта врача или без доступа к специализированному оборудованию. По этой и другим причинам существует постоянная необходимость в улучшениях в области систем исследования рефракции для измерения рефракционных нарушений в глазах.[0003] A refraction, also called a vision test or eye exam, is typically ordered by an ophthalmologist to determine whether a patient needs (or needs to change) prescription lenses such as glasses and contact lenses. The doctor often presents images, symbols, or words to the patient, who provides comments on the sharpness or blurriness of their vision, and this information is used to determine a prescription for the patient. In some cases, doctors may have equipment configured to scan or otherwise measure the characteristics of the patient's lens and other structures of the eye to obtain a prescription. However, this means that prescriptions are difficult to obtain without the doctor's expertise and experience or without access to specialized equipment. For this and other reasons, there is an ongoing need for improvements in refractive testing systems for measuring refractive errors in the eye.
Раскрытие сущности изобретенияDisclosure of the essence of the invention
[0004] Один аспект настоящего раскрытия относится к способу, включающему этапы, на которых отображают по меньшей мере одно изображение испытуемому, при этом указанное по меньшей мере одно изображение имеет внешний вид для испытуемого на основе физических характеристик глаза испытуемого, получают входную информацию от испытуемого в отношении внешнего вида указанного по меньшей мере одного изображения и передают указанную входную информацию от испытуемого.[0004] One aspect of the present disclosure relates to a method comprising the steps of displaying at least one image to a subject, wherein said at least one image has an appearance to the subject based on physical characteristics of the subject's eye, receiving input information from the subject regarding the appearance of said at least one image, and transmitting said input information from the subject.
[0005] В некоторых вариантах осуществления отображение по меньшей мере одного изображения испытуемому и получение входной информации от испытуемого включает в себя: отображение набора форм испытуемому и получение входной информации, указывающей сферу глаза; отображение набора радиальных отрезков и колец испытуемому и получение входной информации, указывающей значение измерения цилиндра глаза; отображение изображения для управления аккомодацией испытуемому и получение входной информации, подтверждающей сферу глаза; отображение изображения для тестирования остроты зрения и получение входной информации о лучшей корригированной остроте зрения (best corrected visual acuity, BCVA) глаза и предоставление инструкций для расслабления глаза.[0005] In some embodiments, displaying at least one image to a subject and receiving input from the subject includes: displaying a set of shapes to the subject and receiving input indicating a sphere of the eye; displaying a set of radial segments and rings to the subject and receiving input indicating a cylinder measurement value of the eye; displaying an image for controlling accommodation to the subject and receiving input confirming the sphere of the eye; displaying an image for testing visual acuity and receiving input about the best corrected visual acuity (BCVA) of the eye and providing instructions for relaxing the eye.
[0006] В некоторых вариантах осуществления отображение по меньшей мере одного изображения включает в себя отображение указанного по меньшей мере одного изображения в первом размере и отображение указанного по меньшей мере одного изображения во втором размере. По меньшей мере одно изображение может быть одновременно или последовательно отображено в первом и втором размерах.[0006] In some embodiments, displaying at least one image includes displaying said at least one image in a first size and displaying said at least one image in a second size. The at least one image may be simultaneously or sequentially displayed in the first and second sizes.
[0007] Отображение по меньшей мере одного изображения может включать в себя отображение указанного по меньшей мере одного изображения на первом расстоянии, измеренном вдоль оптического пути между испытуемым и по меньшей мере одним изображением, и отображение указанного по меньшей мере одного изображения на втором расстоянии, измеренном вдоль оптического пути между испытуемым и по меньшей мере одним изображением.[0007] Displaying at least one image may include displaying said at least one image at a first distance measured along an optical path between the subject and the at least one image, and displaying said at least one image at a second distance measured along the optical path between the subject and the at least one image.
[0008] В некоторых вариантах осуществления входная информация является субъективной входной информацией на основе физических характеристик глаза испытуемого. Входная информация от испытуемого может включать в себя указание значения яркости части указанного по меньшей мере одного изображения. В некоторых вариантах осуществления способ дополнительно включает предоставление инструкций испытуемому, чтобы изменять длину оптического пути между испытуемым и по меньшей мере одним изображением. Входная информация от испытуемого может включать в себя указание резкости части по меньшей мере одного изображения.[0008] In some embodiments, the input information is subjective input information based on physical characteristics of the eye of the subject. The input information from the subject may include an indication of the brightness value of a portion of the at least one image. In some embodiments, the method further includes providing instructions to the subject to change the optical path length between the subject and the at least one image. The input information from the subject may include an indication of the sharpness of a portion of the at least one image.
[0009] Другой аспект настоящего раскрытия относится к продукту, содержащему один или более материальных компьютерочитаемых некратковременных носителей для хранения информации, содержащих исполняемые на компьютере инструкции, выполненные с возможностью, при исполнении по меньшей мере одним компьютерным процессором, обеспечения указанному по меньшей мере одному компьютерному процессору возможности вызывать выполнение вычислительным устройством следующих этапов: отображать по меньшей мере одно изображение испытуемому, при этом указанное по меньшей мере одно изображение имеет внешний вид для испытуемого на основе физических характеристик глаза испытуемого; получать входную информацию от испытуемого в отношении внешнего вида указанного по меньшей мере одного изображения; и передавать входную информацию от испытуемого.[0009] Another aspect of the present disclosure pertains to a product comprising one or more tangible computer-readable non-transitory storage media comprising computer-executable instructions configured to, when executed by at least one computer processor, cause said at least one computer processor to cause a computing device to perform the following steps: display at least one image to a subject, wherein said at least one image has an appearance to the subject based on physical characteristics of the subject's eye; receive input from the subject regarding the appearance of said at least one image; and transmit the input from the subject.
[0010] Еще один аспект настоящего раскрытия относится к устройству для субъективного тестирования оптического параметра глаза испытуемого, при этом устройство содержит: процессор; дисплей; устройство ввода; сетевое устройство и запоминающее устройство, включающее в себя исполняемые инструкции. Инструкции могут быть выполнены с возможностью, при исполнении процессором: отображать по меньшей мере одно изображение испытуемому посредством дисплея, при этом указанное по меньшей мере одно изображение имеет внешний вид для испытуемого на основе физических характеристик глаза испытуемого; получать входную информацию от испытуемого посредством устройства ввода в отношении внешнего вида указанного по меньшей мере одного изображения; и передавать входную информацию от испытуемого посредством сетевого устройства.[0010] Another aspect of the present disclosure relates to a device for subjectively testing an optical parameter of the eye of a subject, wherein the device comprises: a processor; a display; an input device; a network device, and a memory device including executable instructions. The instructions may be configured to, when executed by the processor: display at least one image to the subject via the display, wherein said at least one image has an appearance to the subject based on physical characteristics of the eye of the subject; receive input information from the subject via the input device regarding the appearance of said at least one image; and transmit the input information from the subject via the network device.
[0011] Вышеприведенное раскрытие сущности настоящего изобретения не предназначено для описания каждого варианта осуществления или каждого варианта реализации настоящего изобретения. Чертежи и подробное описание в разделе "Осуществление изобретения", которые следуют далее, более конкретно приводят примеры одного или более предпочтительных вариантов осуществления.[0011] The above disclosure is not intended to describe each embodiment or every mode of implementation of the present invention. The drawings and detailed description in the "Design" section that follows more particularly exemplify one or more preferred embodiments.
Краткое описание чертежейBrief description of the drawings
[0012] Сопроводительные чертежи и фигуры иллюстрируют ряд приведенных для примера вариантов осуществления и являются частью описания. Вместе с настоящим описанием эти чертежи демонстрируют и объясняют различные принципы данного раскрытия. Дальнейшее понимание природы и преимуществ настоящего изобретения может быть реализовано посредством ссылки на последующие чертежи. На прилагаемых чертежах похожие компоненты или признаки могут иметь одинаковое ссылочное обозначение.[0012] The accompanying drawings and figures illustrate a number of exemplary embodiments and are a part of the description. Together with the present description, these drawings illustrate and explain various principles of this disclosure. A further understanding of the nature and advantages of the present invention can be realized by reference to the following drawings. In the accompanying drawings, similar components or features may have the same reference designation.
[0013] Фиг. 1 показывает схематичную иллюстрацию системы 100 для получения субъективной рефракции испытуемого.[0013] Fig. 1 shows a schematic illustration of a system 100 for obtaining a subjective refraction of a subject.
[0014] Фиг. 2 показывает блок-схему пользовательского процесса для субъективной рефракции испытуемого.[0014] Fig. 2 shows a flow chart of the user process for subjective refraction of a subject.
[0015] Фиг. 3 показывает блок-схему интерактивного процесса для настройки окружения тестирования для онлайн-теста рефракции.[0015] Fig. 3 shows a flow chart of an interactive process for setting up a testing environment for an online refraction test.
[0016] Фиг. 4 показывает блок-схему процесса тестирования рефракции.[0016] Fig. 4 shows a flow chart of the refraction testing process.
[0017] Фиг. 5 показывает цель для отсева.[0017] Fig. 5 shows the target for screening.
[0018] Фиг. 6 показывает цель для определения местоположения приближенной сферы.[0018] Fig. 6 shows a target for determining the location of an approximate sphere.
[0019] Фиг. 7 показывает приведенную для примера группу этапов для тестирования форм.[0019] Fig. 7 shows an exemplary group of steps for testing forms.
[0020] Фиг. 8 показывает цель для тестирования радиальных отрезков и колец.[0020] Fig. 8 shows a target for testing radial sections and rings.
[0021] Фиг. 9A-9B показывают приведенную для примера группу этапов для тестирования радиальных отрезков и колец.[0021] Figs. 9A-9B show an exemplary group of steps for testing radial sections and rings.
[0022] Фиг. 10 показывает цель ахроматической монорешетки.[0022] Fig. 10 shows the purpose of the achromatic monograting.
[0023] Фиг. 11A-11G показывают приведенную для примера группу этапов тестирования ахроматической монорешетки.[0023] Figs. 11A-11G show an exemplary set of testing steps for an achromatic monograting.
[0024] Фиг. 12 показывает цель для подтверждения цилиндра.[0024] Fig. 12 shows the target for cylinder confirmation.
[0025] Фиг. 13 показывает приведенную для примера группу этапов для тестирования для подтверждения цилиндра.[0025] Fig. 13 shows an exemplary group of steps for testing to confirm a cylinder.
[0026] Фиг. 14 показывает приведенную для примера группу этапов для тестирования для уточнения оси.[0026] Fig. 14 shows an exemplary group of steps for testing for axis refinement.
[0027] Фиг. 15A-15B показывают приведенную для примера группу этапов для тестирования для управления аккомодацией.[0027] Fig. 15A-15B show an exemplary group of steps for testing for accommodation control.
[0028] Фиг. 16 показывает приведенную для примера группу этапов для тестирования остроты зрения.[0028] Fig. 16 shows an exemplary group of steps for testing visual acuity.
[0029] Фиг. 17 показывает приведенную для примера группу этапов для тестирования величины цилиндра.[0029] Fig. 17 shows an exemplary group of steps for testing the cylinder size.
[0030] Фиг. 18A-18B показывают приведенную для примера группу этапов для тестирования величины цилиндра.[0030] Fig. 18A-18B show an exemplary group of steps for testing a cylinder size.
[0031] Фиг. 19 показывает блочную схему системы программного обеспечения.[0031] Fig. 19 shows a block diagram of the software system.
[0032] Фиг. 20 показывает функциональную схему системы тестирования субъективного оптического параметра.[0032] Fig. 20 shows a functional diagram of a subjective optical parameter testing system.
[0033] В то время как варианты осуществления, описанные в настоящем документе, допускают различные модификации и альтернативные формы, конкретные варианты осуществления были показаны в качестве примера на чертежах и будут описаны подробно в настоящем документе. Однако приведенные для примера варианты осуществления, описанные в настоящем документе, не предназначены для ограничения конкретными раскрытыми формами. Напротив, текущее раскрытие охватывает все модификации, эквиваленты и альтернативы, попадающие в рамки прилагаемой формулы изобретения.[0033] While the embodiments described herein are susceptible to various modifications and alternative forms, specific embodiments have been shown by way of example in the drawings and will be described in detail herein. However, the exemplary embodiments described herein are not intended to be limited to the specific forms disclosed. On the contrary, the present disclosure covers all modifications, equivalents, and alternatives falling within the scope of the appended claims.
Осуществление изобретенияImplementation of the invention
[0034] Варианты осуществления настоящего раскрытия относятся к процессу тестирования субъективной рефракции, включающему комбинацию нескольких стадий или частей процесса тестирования. Каждая из стадий может включать отображение по меньшей мере одного специально спроектированного изображения пользователю (т.е. испытуемому), причем это изображение или набор изображений могут называться "целью". Цель может иметь различный внешний вид для субъекта согласно физическим характеристикам его глаз (например, их рефракции, цветового соответствия и т.д.), их расстоянию от цели, размеру цели, графическому дизайну цели (т.е. контрастности, яркости и т.д.) и аналогичным факторам. На каждой стадии процесс тестирования может быть использован для определения одного или более оптических параметров субъекта на основе измерений и/или вычислений расстояния вдоль оптического пути от цели до испытуемого, на основе изменения размера цели и/или на основе того, что испытуемый фактически видит, на основе его входной информации (например, вербальных ответов или других данных, вводимых в вычислительное устройство). Взятые вместе, эти параметры могут быть использованы для определения подробностей рефракционного нарушения субъекта, включающего в себя, например, его сферические, цилиндрические и осевые значения измерений. В некоторых вариантах осуществления процесс тестирования может включать в себя инструктирование субъекта посредством визуальный и звуковой информации, чтобы направлять пользователя через исследование. В некоторых конфигурациях исследование выполняется для каждого глаза отдельно, в то же время закрывая противоположный глаз, так что испытуемый выполняет тест дважды.[0034] Embodiments of the present disclosure relate to a subjective refraction testing process that includes a combination of multiple stages or portions of a testing process. Each of the stages may include displaying at least one specially designed image to a user (i.e., a subject), wherein this image or set of images may be referred to as a "target." The target may have a different appearance to the subject according to the physical characteristics of his eyes (e.g., their refraction, color matching, etc.), their distance from the target, the size of the target, the graphic design of the target (i.e., contrast, brightness, etc.) and similar factors. At each stage, the testing process may be used to determine one or more optical parameters of the subject based on measurements and/or calculations of the distance along the optical path from the target to the subject, based on a change in the size of the target and/or based on what the subject actually sees based on his input information (e.g., verbal responses or other data entered into a computing device). Taken together, these parameters can be used to determine the details of the subject's refractive error, including, for example, its spherical, cylindrical, and axial measurement values. In some embodiments, the testing process can include instructing the subject via visual and auditory information to guide the user through the test. In some configurations, the test is performed for each eye separately, while covering the opposite eye, so that the subject performs the test twice.
[0035] Процесс тестирования может быть выполняемым самостоятельно, что означает, что испытуемый может быть пользователем, управляющим и реализующим процесс тестирования. Таким образом, в некоторых вариантах осуществления испытуемый может быть один или не получать помощь от других людей во время выполнения процесса тестирования. Результаты процесса тестирования могут, в некоторых случаях, быть предоставлены третьей стороне (например, профессиональному офтальмологу) для интерпретации результатов и принятия надлежащего клинического действия. Информация, собранная с использованием процесса тестирования (например, сферические, цилиндрические и осевые значения измерений испытуемого), может быть использована для формирования диагноза о потребностях субъекта. Например, значения измерений рефракционного нарушения испытуемого могут быть использованы для формулирования предписания для очков и/или контактных линз для испытуемого.[0035] The testing process may be self-administered, meaning that the subject may be the user who controls and implements the testing process. Thus, in some embodiments, the subject may be alone or without assistance from other people during the testing process. The results of the testing process may, in some cases, be provided to a third party (e.g., an ophthalmologist) for interpretation of the results and appropriate clinical action. Information collected using the testing process (e.g., the subject's spherical, cylindrical, and axial measurement values) may be used to formulate a diagnosis of the subject's needs. For example, the subject's refractive error measurement values may be used to formulate a prescription for glasses and/or contact lenses for the subject.
[0036] Процесс тестирования может быть использован с испытуемыми различных возрастов, включающими в себя, например, взрослых мужчин и женщин в возрасте от 18 до 39 лет, и с испытуемыми с различными предписаниями очков и/или контактных линз, включающими в себя, например, оптическую силу сферы между 1,00D и -5,00D, оптическую силу цилиндра до -2,50D и суммарную оптическую силу (сферы + цилиндра) до -6,00D.[0036] The testing process can be used with subjects of various ages, including, for example, adult males and females between the ages of 18 and 39, and with subjects with various spectacle and/or contact lens prescriptions, including, for example, sphere powers between 1.00D and -5.00D, cylinder powers up to -2.50D, and combined (sphere + cylinder) powers up to -6.00D.
[0037] В некоторых вариантах осуществления значения измерений, захваченные в процессе тестирования, не отображаются пользователю или испытуемому. Они могут вместо этого быть представлены на рассмотрение третьей стороне, такой как лицензированный представитель услуг медицинской помощи, для осуществления доступа и интерпретации. Таким образом, в некоторых случаях, третьей стороне может быть обеспечена возможность доступа к выходным данным процесса тестирования для принятия целесообразного действия (например, клинического действия или подтверждения). Третья сторона может осуществлять доступ к значениям измерений процесса тестирования и связанной информации посредством тестирующего устройства, используемого для получения значений измерений и связанной информации, или информация может быть передана третьей стороне (например, через сеть) для осуществления их доступа.[0037] In some embodiments, the measurement values captured during the testing process are not displayed to the user or test subject. They may instead be presented to a third party, such as a licensed health care provider, for access and interpretation. Thus, in some cases, the third party may be able to access the output of the testing process to take appropriate action (e.g., clinical action or confirmation). The third party may access the measurement values of the testing process and related information through the testing device used to obtain the measurement values and related information, or the information may be transmitted to the third party (e.g., via a network) for access.
[0038] Различные типы выходных данных могут быть сформированы с использованием вышеуказанных процессов и систем, включающие в себя, например, информацию о соответствии выходной информации (включающей в себя оптическую силу сферы, оптическую силу цилиндра и ось цилиндра для обоих глаз) для каждого глаза, посредством выполнения двух отдельных процессов тестирования или информацию о соответствии бинокулярной BCVA между процессом тестирования и оценками SOC, выполненными последовательно. Кроме того, может быть сформирована информация о соответствии выходной информации (включающей в себя оптическую силу сферы, оптическую силу цилиндра и ось цилиндра для обоих глаз) для каждого глаза между процессом тестирования и оценками SOC, выполненными последовательно.[0038] Various types of output data can be generated using the above processes and systems, including, for example, information on the correspondence of the output information (including the spherical power, the cylinder power, and the cylinder axis for both eyes) for each eye by performing two separate testing processes, or information on the correspondence of the binocular BCVA between the testing process and the SOC assessments performed sequentially. In addition, information on the correspondence of the output information (including the spherical power, the cylinder power, and the cylinder axis for both eyes) for each eye between the testing process and the SOC assessments performed sequentially can be generated.
[0039] В приведенном для примера варианте осуществления информация о соответствии для каждого значения измерения в каждом глазу может указывать, находятся ли 80% в пределах неких оптических параметров, таких как, например, оптическая сила сферы: ±0,50D, оптическая сила цилиндра: ±0,50D, и ось цилиндра: ±20 градусов. В некоторых вариантах осуществления параметр оси может не сравниваться, когда оптическая сила цилиндра находится между -0,25D и 0,00D.[0039] In an exemplary embodiment, the compliance information for each measurement value in each eye may indicate whether 80% is within certain optical parameters, such as, for example, sphere power: ±0.50D, cylinder power: ±0.50D, and cylinder axis: ±20 degrees. In some embodiments, the axis parameter may not be compared when the cylinder power is between -0.25D and 0.00D.
[0040] Настоящее описание предоставляет примеры и не ограничивает объем, применимость или конфигурацию, изложенные в формуле изобретения. Таким образом, будет понятно, что изменения могут быть выполнены в функции и компоновке обсуждаемых элементов без отступления от сущности и объема настоящего раскрытия, и различные варианты осуществления могут опускать, заменять или добавлять другие процедуры или компоненты при необходимости. Например, описанные способы могут выполняться в порядке, отличающемся от описанного порядка, и различные этапы могут добавляться, опускаться или комбинироваться. Также признаки, описанные относительно некоторых вариантов осуществления, могут быть объединены в других вариантах осуществления.[0040] The present description provides examples and does not limit the scope, applicability or configuration set forth in the claims. Thus, it will be understood that changes can be made in the function and arrangement of the discussed elements without departing from the spirit and scope of the present disclosure, and various embodiments can omit, substitute or add other procedures or components as needed. For example, the described methods can be performed in an order different from the order described, and various steps can be added, omitted or combined. Also, features described with respect to some embodiments can be combined in other embodiments.
[0041] Фиг. 1 является схематичной иллюстрацией системы 100 для получения субъективной рефракции испытуемого в соответствии с примерами, описанными в настоящем документе. Следует понимать, что эта и другие компоновки и элементы (например, машины, интерфейсы, функция, порядки и группировки функций и т.д.) могут быть использованы в дополнение или вместо показанных, и некоторые элементы могут быть опущены вообще. Дополнительно, многие из описанных элементов могут быть реализованы как отдельные или распределенные компоненты или в соединении с другими компонентами, и в любой подходящей комбинации и местоположении. Различные функции, описанные в настоящем документе как выполняемые посредством одного или более компонентов, могут быть выполнены посредством программно-аппаратных средств, аппаратных средств и/или программного обеспечения. Например, и как описано в настоящем документе, различные функции могут быть выполнены процессором, исполняющим инструкции, сохраненные в памяти.[0041] Fig. 1 is a schematic illustration of a system 100 for obtaining a subjective refraction of a subject in accordance with the examples described herein. It should be understood that this and other arrangements and elements (e.g., machines, interfaces, functions, orders and groupings of functions, etc.) may be used in addition to or instead of those shown, and some elements may be omitted altogether. Additionally, many of the elements described may be implemented as separate or distributed components or in conjunction with other components, and in any suitable combination and location. The various functions described herein as being performed by one or more components may be performed by firmware, hardware, and/or software. For example, and as described herein, the various functions may be performed by a processor executing instructions stored in a memory.
[0042] Среди других непоказанных компонентов система 100 по фиг. 1 включает в себя по меньшей мере одно хранилище 104 данных по меньшей мере одно вычислительное устройство 106 по меньшей мере одно устройство 108 формирования изображения и по меньшей мере одно устройство 110 отображения. Вычислительное устройство 106 может включать в себя процессор 116 и память 118. Память 118 включает в себя (например, может быть закодирована с помощью) исполняемые инструкции 120 для выполнения процесса тестирования субъективной рефракции. Память 118 может содержать некратковременный компьютерочитаемый носитель, имеющий инструкции 120, сохраненные в нем или закодированные на нем. Устройство 108 формирования изображения может захватывать изображение (например, фотографию) или последовательность изображений (например, фотографии или видеоизображения). Следует понимать, что система 100, показанная на фиг. 1, является примером одной подходящей архитектуры для реализации некоторых аспектов настоящего раскрытия. Дополнительные, меньшее количество и/или другие компоненты могут быть использованы в других примерах. Следует отметить, что варианты реализации настоящего раскрытия в равной степени являются применимыми к другим типам устройств, таким как мобильные вычислительные устройства и устройства, принимающие жесты, касание и/или голосовой ввод. Любая и все такие разновидности, и любое их сочетание, считаются находящимися в объеме вариантов реализации настоящего раскрытия. Дополнительно, хотя иллюстрируются как отдельные компоненты вычислительного устройства 106, любое число компонентов может быть использовано для выполнения функциональности, описанной в настоящем документе. Хотя иллюстрированы как являющиеся частью вычислительного устройства 106, компоненты могут быть распределены по любому числу устройств. Например, процессор 116 может быть предоставлен посредством одного устройства, сервера или кластера серверов, в то время как память 118 может быть предоставлена посредством другого устройства, сервера или кластера серверов.[0042] Among other components not shown, the system 100 of FIG. 1 includes at least one data store 104, at least one computing device 106, at least one imaging device 108, and at least one display device 110. The computing device 106 may include a processor 116 and a memory 118. The memory 118 includes (e.g., may be encoded with) executable instructions 120 for performing a subjective refraction testing process. The memory 118 may comprise a non-transitory computer-readable medium having the instructions 120 stored therein or encoded thereon. The imaging device 108 may capture an image (e.g., a photograph) or a sequence of images (e.g., photographs or video images). It should be understood that the system 100 shown in FIG. 1 is an example of one suitable architecture for implementing certain aspects of the present disclosure. Additional, fewer and/or different components may be used in other examples. It should be noted that embodiments of the present disclosure are equally applicable to other types of devices, such as mobile computing devices and devices that accept gestures, touch and/or voice input. Any and all such variations, and any combination thereof, are considered to be within the scope of embodiments of the present disclosure. Additionally, although illustrated as separate components of the computing device 106, any number of components may be used to perform the functionality described herein. Although illustrated as being part of the computing device 106, the components may be distributed across any number of devices. For example, the processor 116 may be provided by one device, server or server cluster, while the memory 118 may be provided by another device, server or server cluster.
[0043] Как показано на фиг. 1, вычислительное устройство 106, устройство 108 формирования изображения и устройство 110 отображения могут электронным образом связываться друг с другом по сети 102, которая может включать в себя, без ограничения, одно или более прямых (например, проводных) соединений, локальные вычислительные сети (LAN) и/или глобальные вычислительные сети (WAN). Такие сетевые среды являются обычными в офисах, корпоративных компьютерных сетях, лабораториях, домах, сетях интранет и Интернете. Соответственно, сеть 102 дополнительно не описана в настоящем документе. Следует понимать, что любое число вычислительных устройств, датчиков и/или измерителей может быть использовано в системе 100 в пределах объема вариантов реализации настоящего раскрытия. Каждый вариант реализации может содержать одно устройство или множество устройств, взаимодействующих в распределенной среде. Например, вычислительное устройство 106 может быть предоставлено посредством множества серверных устройств, совместно предоставляющих функциональность вычислительного устройства 106, как описано в настоящем документе. Дополнительно, другие непоказанные компоненты могут также быть включены в сетевую среду. В некоторых вариантах осуществления индивидуальные компоненты могут электронным образом непосредственно связываться друг с другом.[0043] As shown in Fig. 1, the computing device 106, the imaging device 108, and the display device 110 may be electronically connected to each other via a network 102, which may include, without limitation, one or more direct (e.g., wired) connections, local area networks (LANs), and/or wide area networks (WANs). Such network environments are common in offices, corporate computer networks, laboratories, homes, intranets, and the Internet. Accordingly, the network 102 is not further described herein. It should be understood that any number of computing devices, sensors, and/or meters may be used in the system 100 within the scope of embodiments of the present disclosure. Each embodiment may comprise one device or a plurality of devices interacting in a distributed environment. For example, the computing device 106 may be provided by a plurality of server devices that collectively provide the functionality of the computing device 106 as described herein. Additionally, other components not shown may also be included in the network environment. In some embodiments, individual components may electronically communicate directly with one another.
[0044] Вычислительное устройство 106, устройство 108 формирования изображения и устройство 110 отображения могут осуществлять доступ (например, по сети 102) по меньшей мере к одному хранилищу данных или репозитарию, такому как хранилище 104 данных, которое может включать в себя любые данные, относящиеся к данным предписания, показателям измерений рефракции глаза, данным рефракции, пользовательским данным, данным размера, историческим данным и сравнительным данным, также как какие-либо метаданные, ассоциированные с ними. Хранилище 104 данных может дополнительно включать в себя любые данные, относящиеся к способам или исполняемым инструкциям для получения рефракции с использованием процесса тестирования субъективной рефракции, изображения для представления испытуемому, инструкции для испытуемого или практикующего специалиста-офтальмолога, свойства продукта, сигналы управления и индикаторные сигналы. В вариантах реализации настоящего раскрытия хранилище 104 данных может быть доступно для поиска его данных и способов или исполняемых инструкций, описанных в настоящем документе.[0044] The computing device 106, the imaging device 108, and the display device 110 may access (e.g., via the network 102) at least one data store or repository, such as the data store 104, which may include any data related to prescription data, refractive measurement values of the eye, refractive data, user data, size data, historical data, and comparative data, as well as any metadata associated therewith. The data store 104 may further include any data related to methods or executable instructions for obtaining a refraction using a subjective refraction testing process, images for presentation to a test subject, instructions for a test subject or an ophthalmological practitioner, product properties, control signals, and indicator signals. In embodiments of the present disclosure, the data store 104 may be accessible for searching its data and the methods or executable instructions described herein.
[0045] Такая информация, сохраненная в хранилище 104 данных, может быть доступна любому компоненту системы 100. Содержимое и объем такой информации не предназначены, чтобы ограничивать объем аспектов настоящей технологии каким-либо образом. Дополнительно, хранилище 104 данных может быть единственным, независимым компонентом (как показано) или множеством запоминающих устройств, например, кластером базы данных, части которого могут находиться в ассоциативной связи с вычислительным устройством 106, устройством 108 формирования изображения, устройством 110 отображения, другим внешним вычислительным устройством (не показано) и/или любым их сочетанием. Дополнительно, хранилище 104 данных может включать в себя множество несвязанных репозитариев данных или источников в пределах объема вариантов осуществления настоящей технологии. Хранилище 104 данных может быть локальным по отношению к вычислительному устройству 106, устройству 108 формирования изображения или устройству 110 отображения. Хранилище 104 данных может обновляться в любое время, включая в себя информацию о преобразовании активности воды в содержание воды для различных продуктов, изотермы, показатели измерений, исторический вес, активность воды или данные о содержании воды и т.д.[0045] Such information stored in the data store 104 may be accessible to any component of the system 100. The content and scope of such information are not intended to limit the scope of aspects of the present technology in any way. Additionally, the data store 104 may be a single, independent component (as shown) or a plurality of storage devices, such as a database cluster, portions of which may be in associative communication with the computing device 106, the imaging device 108, the display device 110, another external computing device (not shown), and/or any combination thereof. Additionally, the data store 104 may include a plurality of unrelated data repositories or sources within the scope of embodiments of the present technology. The data store 104 may be local to the computing device 106, the imaging device 108, or the display device 110. The data warehouse 104 can be updated at any time, including information on the conversion of water activity to water content for various products, isotherms, measurement values, historical weight, water activity or water content data, etc.
[0046] Примеры устройства 108 формирования изображения, описанные в настоящем документе, могут в целом реализовывать сбор информации изображения. В некоторых вариантах осуществления устройство 108 формирования изображения может быть частью вычислительного устройства 106, например, располагаясь в корпусе вычислительного устройства 106. В некоторых вариантах осуществления вычислительное устройство является мобильным вычислительным устройством, таким как смартфонное устройство или планшетный компьютер, сконфигурированным с камерой в качестве устройства 108 формирования изображения. В некоторых вариантах осуществления устройство 108 формирования изображения содержит множество устройств формирования изображения, приспособленных для сбора данных изображения. Единственное устройство 108 формирования изображения может быть использовано для получения изображения пользователя, глаз пользователя, отображенного изображения (например, на устройстве 110 отображения) или других объектов, или множество устройств формирования изображения могут быть использованы для получения различных изображений. В некоторых вариантах осуществления устройство 108 формирования изображения может быть использовано для получения пользовательских управляющих сигналов, команд или других пользовательских сигналов. Например, испытуемый может предоставлять входные данные вычислительному устройству 106 с использованием устройства 108 формирования изображения (например, глядя в некотором направлении, фокусируясь на конкретном целевом изображении, говоря в устройство 108 формирования изображения, и т.д.).[0046] Examples of the imaging device 108 described herein may generally implement the collection of image information. In some embodiments, the imaging device 108 may be part of the computing device 106, such as being located in a housing of the computing device 106. In some embodiments, the computing device is a mobile computing device, such as a smartphone device or a tablet computer, configured with a camera as the imaging device 108. In some embodiments, the imaging device 108 comprises a plurality of imaging devices adapted to collect image data. A single imaging device 108 may be used to obtain an image of a user, the user's eyes, a displayed image (e.g., on the display device 110), or other objects, or a plurality of imaging devices may be used to obtain different images. In some embodiments, the imaging device 108 may be used to obtain user control signals, commands, or other user signals. For example, the subject may provide input to the computing device 106 using the imaging device 108 (e.g., by looking in a certain direction, focusing on a particular target image, speaking into the imaging device 108, etc.).
[0047] Устройство 110 отображения может быть использовано для отображения изображений испытуемому или другому пользователю системы 100. В некоторых вариантах осуществления устройство 110 отображения может содержать электронный дисплей (например, жидкокристаллический дисплей (LCD), дисплей на электронных чернилах, проектор изображений или аналогичное устройство). В некоторых случаях, устройство 110 отображения может содержать неэлектронные устройства отображения, такие как плакаты, репродукции, книги и аналогичные устройства, и устройство отображения электронным образом не соединяется с сетью 102. Устройство 110 отображения может быть использовано для представления множества изображений испытуемому, таких как изображения для оценки рефракционного нарушения в сферических, цилиндрических и осевых измерениях. Испытуемый может просматривать изображения на устройстве 110 отображения и предоставлять входные данные вычислительному устройству 106, касающиеся его восприятия (например, резкости или размытости) изображений. На основе обратной связи от испытуемого устройство отображения может быть выполнено с возможностью представлять различные изображения испытуемому, чтобы оценивать различные аспекты его зрения.[0047] Display device 110 may be used to display images to a subject or another user of system 100. In some embodiments, display device 110 may comprise an electronic display (e.g., a liquid crystal display (LCD), an e-ink display, an image projector, or a similar device). In some cases, display device 110 may comprise non-electronic display devices such as posters, prints, books, and similar devices, and the display device is not electronically connected to network 102. Display device 110 may be used to present a plurality of images to a subject, such as images for assessing refractive error in spherical, cylindrical, and axial dimensions. The subject may view images on display device 110 and provide input to computing device 106 regarding his perception (e.g., sharpness or blurriness) of the images. Based on feedback from the subject, display device may be configured to present different images to the subject in order to assess different aspects of his vision.
[0048] Примеры в настоящем документе могут включать в себя вычислительные устройства, такие как вычислительное устройство 106 на фиг. 1. Вычислительное устройство 106 может в некоторых примерах быть объединено с одним или более датчиками (например, устройством 108 формирования изображения, микрофонами, клавиатурами и другими устройствами ввода), описанными в настоящем документе. Вычислительное устройство 106 может быть дополнительно централизовано, например, не объединено с одним или более датчиками, описанными в настоящем документе. В некоторых примерах вычислительное устройство 106 может быть реализовано с использованием одного или более компьютеров, серверов, смартфонов, интеллектуальных устройств или планшетов. Вычислительное устройство 106 может обеспечивать процессы тестирования, описанные в настоящем документе. Вычислительное устройство 106 может включать в себя компьютерочитаемые носители, закодированные с исполняемыми инструкциями (например, 120), и процессор 116, который может исполнять инструкции, чтобы обеспечивать стабилизацию системы питания и управление демпфированием колебаний. Как описано в настоящем документе, вычислительное устройство 106 включает в себя процессор 116 и память 118. Память 118 может включать в себя исполняемые инструкции для взвешивания и отслеживания изменения содержания влаги или обнаружения потери результата. В некоторых вариантах осуществления вычислительное устройство 106 может быть физически соединено с устройством 108 формирования изображения и/или устройством 110 отображения (например, компоненты могут быть объединены и/или могут быть соединены с использованием проводного интерфейса, такого как шина, межсоединение, плата и т.д.). В других вариантах осуществления вычислительное устройство 106 может не быть физически соединено с устройством 108 формирования изображения и/или устройством 110 отображения, но располагаться совместно с устройством формирования изображения и/или устройством отображения. В еще одних вариантах осуществления вычислительное устройство 106 может не быть ни физически соединено с устройством 108 формирования изображения и/или устройством 110 отображения, ни располагаться совместно с устройством 108 формирования изображения и/или устройством 110 отображения. Данные, предоставляемые устройством 108 формирования изображения или устройством 110 отображения, могут быть сохранены в месте, доступном другим компонентам в системе в некоторых примерах.[0048] Examples herein may include computing devices, such as computing device 106 in Fig. 1. Computing device 106 may, in some examples, be combined with one or more sensors (e.g., imaging device 108, microphones, keyboards, and other input devices) described herein. Computing device 106 may be further centralized, such as not combined with one or more sensors described herein. In some examples, computing device 106 may be implemented using one or more computers, servers, smartphones, smart devices, or tablets. Computing device 106 may provide the testing processes described herein. Computing device 106 may include computer-readable media encoded with executable instructions (e.g., 120), and a processor 116 that can execute the instructions to provide power system stabilization and vibration damping control. As described herein, the computing device 106 includes a processor 116 and a memory 118. The memory 118 may include executable instructions for weighing and tracking a change in moisture content or detecting a loss of a result. In some embodiments, the computing device 106 may be physically connected to the imaging device 108 and/or the display device 110 (e.g., the components may be combined and/or may be connected using a wired interface such as a bus, an interconnect, a board, etc.). In other embodiments, the computing device 106 may not be physically connected to the imaging device 108 and/or the display device 110, but be co-located with the imaging device and/or the display device. In yet other embodiments, the computing device 106 may neither be physically connected to the imaging device 108 and/or the display device 110, nor be co-located with the imaging device 108 and/or the display device 110. Data provided by the imaging device 108 or the display device 110 may be stored in a location accessible to other components in the system in some examples.
[0049] В то время как устройство 108 формирования изображения и устройство 110 отображения показаны на фиг. 1, любое количество может быть использовано. В некоторых вариантах осуществления единственный инструмент может быть использован для выполнения функций этих устройств. Дополнительно, системы, описанные в настоящем документе, могут включать в себя множество датчиков или устройств вывода, распределенных по всей системе.[0049] While the imaging device 108 and the display device 110 are shown in Fig. 1, any number may be used. In some embodiments, a single tool may be used to perform the functions of these devices. Additionally, the systems described herein may include a plurality of sensors or output devices distributed throughout the system.
[0050] Вычислительные устройства, такие как вычислительное устройство 106, описанное в настоящем документе, могут включать в себя один или более процессоров, таких как процессор 116. Любой вид и/или количество процессоров может присутствовать, включая одно или более из следующего: центральный процессор(ы) (CPU), графические процессоры (GPU), другие компьютерные процессоры, мобильные процессоры, цифровые сигнальные процессоры (DSP), микропроцессоры, компьютерные микросхемы и/или процессоры, сконфигурированные, чтобы исполнять инструкции на машинном языке и обрабатывать данные, такие как исполняемые инструкции 120. Вычислительное устройство 106 может также содержать другие компьютерные компоненты (не показаны), чтобы задействовать и связывать вычислительное устройство 106, такое как, например, контроллер ввода/вывода, дисплей или другое устройство вывода, устройства ввода, сетевые интерфейсы и т.д. друг с другом.[0050] Computing devices, such as computing device 106 described herein, may include one or more processors, such as processor 116. Any type and/or number of processors may be present, including one or more of the following: central processing unit(s) (CPU), graphics processing units (GPU), other computer processors, mobile processors, digital signal processors (DSP), microprocessors, computer chips, and/or processors configured to execute machine language instructions and process data, such as executable instructions 120. Computing device 106 may also contain other computer components (not shown) to enable and communicate computing device 106, such as, for example, an input/output controller, a display or other output device, input devices, network interfaces, etc. with each other.
[0051] Вычислительные устройства, такие как вычислительное устройство 106, описанное в настоящем документе, могут дополнительно включать в себя память 118. Любой тип или вид памяти может присутствовать (например, постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), твердотельный накопитель (SSD) и безопасная цифровая карта (SD-карта). В то время как единственный блок изображен в качестве памяти 118, любое количество запоминающих устройств может присутствовать. Память 118 может быть на связи (например, электронным образом соединена) с процессором 116.[0051] Computing devices, such as the computing device 106 described herein, may further include memory 118. Any type or kind of memory may be present (e.g., read-only memory (ROM), random access memory (RAM), solid-state drive (SSD), and secure digital card (SD card). While a single unit is depicted as memory 118, any number of memory devices may be present. Memory 118 may be in communication (e.g., electronically coupled) with processor 116.
[0052] Память 118 может хранить исполняемые инструкции для исполнения процессором 116, такие как исполняемые инструкции 120 для определения субъективной рефракции глаз испытуемого. Процессор 116, соединенный с возможностью связи с устройством 108 формирования изображения и устройством 110 отображения, и посредством исполнения исполняемых инструкций 120 для определения субъективной рефракции, может отслеживать входную информацию испытуемого и изменения на основе собранных данных от устройства 108 формирования изображения, среди других устройств ввода.[0052] Memory 118 may store executable instructions for execution by processor 116, such as executable instructions 120 for determining subjective refraction of the eyes of the subject. Processor 116, communicatively connected to imaging device 108 and display device 110, and by executing executable instructions 120 for determining subjective refraction, may track input information of the subject and changes based on collected data from imaging device 108, among other input devices.
[0053] Некоторые варианты осуществления относятся к программному обеспечению в виде медицинского устройства (SaMD) и мобильного медицинского приложения (MMA), предназначенного для самостоятельного исследования субъективной рефракции, которое измеряет рефракционное нарушение для каждого из глаз пользователя. Варианты осуществления системы могут называться "GoEyes" в настоящем документе. Исследование является сочетанием нескольких стадий, каждая из которых содержит специально спроектированное изображение, называемое "целью". Цель может выглядеть визуально различной для пользователя согласно его рефракции, расстояниям от цели и размеру цели. На каждой стадии специальный оптический параметр измеряется и вычисляется посредством анализа расстояния от цели, изменения размера цели и того, что пользователь фактически видит, на основе вербальных ответов пользователя. Полученные вместе, эти параметры предоставят пользователям полные подробности их рефракционного нарушения в единицах сферических, цилиндрических и осевых значений измерений. Инструкции, как визуальные, так и звуковые, будут предоставлены, чтобы направлять пользователя по исследованию. Исследование выполняется для каждого глаза отдельно, в то же время закрывая противоположный глаз, таким образом, пользователю будет необходимо выполнять тест дважды.[0053] Some embodiments relate to software in the form of a medical device (SaMD) and a mobile medical application (MMA) for self-administered subjective refraction testing that measures refractive error for each of the user's eyes. Embodiments of the system may be referred to as "GoEyes" herein. The testing is a combination of several stages, each of which contains a specially designed image called a "target". The target may appear visually different to the user according to his refraction, distance from the target, and size of the target. At each stage, a special optical parameter is measured and calculated by analyzing the distance from the target, the change in target size, and what the user actually sees, based on the user's verbal responses. Together, these parameters will provide users with full details of their refractive error in terms of spherical, cylindrical, and axial measurement values. Instructions, both visual and auditory, will be provided to guide the user through the testing. The test is performed for each eye separately while covering the opposite eye, so the user will need to perform the test twice.
[0054] Целевой пользователь имеет миопию или миопию с астигматизмом. Поддерживаемый диапазон приложения для тестирования (GoEyes) может быть определен как следующий: оптическая сила сферы от -1 диоптрии (D) до -5D, оптическая сила цилиндра до -2,5D и суммарная оптическая сила (сфера + цилиндр) до -6D. Приложение для тестирования может быть приспособлено идентифицировать пользователей, которые находятся вне тестируемого диапазона и прекращать их тестирование.[0054] The target user has myopia or myopia with astigmatism. The supported range of the testing application (GoEyes) may be defined as follows: sphere power from -1 diopter (D) to -5D, cylinder power up to -2.5D, and total power (sphere + cylinder) up to -6D. The testing application may be adapted to identify users who are outside the tested range and stop testing them.
[0055] Клинические принципы[0055] Clinical principles
[0056] Системы настоящего раскрытия могут применять следующие клинические принципы: Максимальное расстояние наилучшей остроты зрения (Maximum distance of best acuity, MDBA) является наибольшим расстоянием от глаза, на котором пользователь может все еще сфокусировать изображение на своей сетчатке глаза. MDBA (в метрах) коррелирует с наилучшей корригирующей оптической силой линзы (best corrective lens power, BCLP) (в диоптриях), так что . Следовательно, точное измерение расстояния между смартфоном и глазом пользователя является основой для вычисления MDBA и BCLP.[0056] The systems of the present disclosure may employ the following clinical principles: The maximum distance of best acuity (MDBA) is the greatest distance from the eye at which the user can still focus an image on their retina. The MDBA (in meters) correlates with the best corrective lens power (BCLP) (in diopters), such that Therefore, accurate measurement of the distance between the smartphone and the user's eye is the basis for calculating MDBA and BCLP.
[0057] Размер цели на сетчатке глаза идентифицируется в единицах LogMAR, представляющих признаки в угловом разрешении, которые коррелируют с таблицами для исследования остроты зрения. Существует минимальный угловой размер, который пользователь с нормальной остротой зрения может видеть в точке фокусировки и имеет способность разбирать детали в изображении, такие как четкие края, различные цвета или оттенки и т.д. Чем дальше пользователь находится от своего MDBA (или, другими словами, "чем больше размытие"), тем больший угловой размер будет необходим для того, чтобы он был способен разбирать детали в изображении. С использованием спроектированных изображений, или "целей", которые содержат конкретные детали, которые воспринимаются по-разному, когда расплывчаты в сравнении с тем, когда являются отчетливыми, пользователь может идентифицировать четкую точку в расстоянии, когда изображение переходит от расплывчатого к отчетливому (и наоборот). Эта точка указывает MDBA.[0057] The size of the target on the retina of the eye is identified in LogMAR units, which represent features in angular resolution that are correlated with visual acuity tables. There is a minimum angular size that a user with normal visual acuity can see at the focal point and be able to resolve details in the image, such as sharp edges, different colors or shades, etc. The farther the user is from his MDBA (or, in other words, "the greater the blur"), the greater the angular size will be required for him to be able to resolve details in the image. Using projected images, or "targets", that contain specific details that are perceived differently when blurred compared to when clear, the user can identify a clear point in the distance when the image goes from blurred to clear (and vice versa). This point indicates the MDBA.
[0058] Аккомодация является приспосабливанием оптической системы глаза, чтобы удерживать объект в фокусе на сетчатке глаза, когда его расстояние от глаза изменяется. С использованием MDBA (т.е. поиска наиболее отдаленной точки фокусировки) может быть достигнуто ослабление аккомодации.[0058] Accommodation is the adjustment of the optical system of the eye to keep an object in focus on the retina of the eye when its distance from the eye changes. By using MDBA (i.e., finding the most distant focal point), a decrease in accommodation can be achieved.
[0059] На основе MDBA, размера цели на сетчатке глаза и ослабления аккомодации система может использовать четыре фундаментальных теста/этапа, чтобы получать сферические, цилиндрические и осевые значения измерений для исследуемого глаза с помощью передней камеры смартфона и датчика глубины (например, IPHONE® X и выше или ANDROID® 6.0 и выше), чтобы измерять расстояние исследуемого глаза от экрана смартфона.[0059] Based on the MDBA, the target size on the retina, and the accommodation attenuation, the system may use four fundamental tests/steps to obtain spherical, cylindrical, and axial measurement values for the test eye using the front camera of the smartphone and the depth sensor (e.g., IPHONE® X and above or ANDROID® 6.0 and above) to measure the distance of the test eye from the smartphone screen.
[0060] Система может реализовывать этапы, включающие в себя: во-первых, отображение специально предназначенной цели (например, изображения) для отдельной аберрации. Далее, ослабление аккомодации. В-третьих, определение местоположения ближней точки и измерение расстояния MDBA. Далее, вывод рефракционного нарушения по .[0060] The system may implement steps including: first, displaying a dedicated target (e.g., an image) for a particular aberration. Next, weakening the accommodation. Third, determining the location of the near point and measuring the MDBA distance. Next, inferring the refractive error from .
[0061] В дополнение к вышесказанному, в некоторых вариантах осуществления, пользователю (испытуемому) может потребоваться удовлетворять следующим критериям:[0061] In addition to the above, in some embodiments, the user (subject) may be required to meet the following criteria:
[0062] (1) Иметь предыдущее предписание очков и/или контактных линз в поддерживаемом диапазоне, т.е. оптическая сила сферы в диапазоне от примерно -1,00D до примерно -5,00D, оптическая сила цилиндра до примерно -2,50D и суммарная оптическая сила (сфера + цилиндр) до примерно -6,00D;[0062] (1) Have a previous prescription for glasses and/or contact lenses in the supported range, i.e., a sphere power in the range of about -1.00D to about -5.00D, a cylinder power of up to about -2.50D, and a combined power (sphere + cylinder) of up to about -6.00D;
[0063] (2) Иметь только одиночное видение (не многофокальные, бифокальные или прогрессивные линзы);[0063] (2) Have single vision only (no multifocal, bifocal, or progressive lenses);
[0064] (3) Не иметь призматического измерения в своем предыдущем предписании;[0064] (3) Not having a prismatic dimension in its previous prescription;
[0065] (4) Не иметь истории амблиопии, диабетов, гипертонии, глаукомы, катаракт, отслоения сетчатки, косоглазия, травм головного мозга, неврологических проблем и т.д.;[0065] (4) Have no history of amblyopia, diabetes, hypertension, glaucoma, cataracts, retinal detachment, strabismus, head injury, neurological problems, etc.;
[0066] (5) Не иметь недавнего дискомфорта или симптомов острой глазной боли, вспышек и/или плавающих помутнений в глазах; и[0066] (5) Have no recent discomfort or symptoms of acute eye pain, flashes and/or floaters in the eyes; and
[0067] (6) Может слышать, понимать и вербально реагировать на звуковые инструкции.[0067] (6) Can hear, understand, and respond verbally to auditory instructions.
[0068] Варианты осуществления систем настоящего раскрытия могут быть загружены, и к ним осуществлен доступ без первоначального контактирования с ECP. Безрецептурное (over the counter, OTC) использование может поддерживаться посредством соответствующей маркировки и тестирования человеческих факторов, чтобы убеждаться в том, что ослабления в идентифицированных, связанных с использованием рисках являются достаточными. Кроме того, результаты тестирования системы могут быть скрыты от, недоступны или иначе не открыты для испытуемого до тех пор, пока выходные данные не будут просмотрены и верифицированы ECP.[0068] Embodiments of the systems of the present disclosure may be loaded and accessed without first contacting the ECP. Over-the-counter (OTC) use may be supported through appropriate labeling and human factors testing to ensure that mitigations in identified use-related risks are sufficient. In addition, the results of testing the system may be hidden from, inaccessible to, or otherwise not disclosed to the test subject until the output has been reviewed and verified by the ECP.
[0069] Приведенная для примера предложенная клиническая последовательность операций является следующей:[0069] The proposed clinical sequence of operations, as an example, is as follows:
[0070] (1) Пользователь - Пользователь может загружать приложение из компьютероисполняемых инструкций на свой смартфон или другое приспособленное для тестирования вычислительное устройство (например, вычислительное устройство, имеющее устройство ввода (например, камеру, датчик глубины и микрофон) и устройство вывода (например, устройство отображения и динамик). Пользователь затем запускает приложение. Пользователь заполняет опросный лист, касающийся его медицинской истории и необходимости в предписании очков и/или контактных линз. Целью опросного листа является идентификация того, находится ли пользователь в указанной пользовательской популяции, и предоставление доступа к тестированию рефракции. Пользователь будет следовать звуковым инструкциям, предоставляемым приложением, и выполнять тестирование рефракции для обоих глаз. Пользователь получит сообщение, говорящее о том, что тест завершен, и результаты просматриваются представителем услуг офтальмологической помощи (eye care provider, ECP). Устройство может сообщать/передавать данные тестирования к ECP.[0070] (1) User - The user may download an application of computer-executable instructions to their smartphone or other computing device adapted for testing (e.g., a computing device having an input device (e.g., a camera, a depth sensor, and a microphone) and an output device (e.g., a display device and a speaker). The user then launches the application. The user completes a questionnaire regarding their medical history and the need for a prescription for glasses and/or contact lenses. The purpose of the questionnaire is to identify whether the user is in a specified user population and to provide access to refraction testing. The user will follow the audio instructions provided by the application and perform refraction testing for both eyes. The user will receive a message indicating that the test is complete and the results are reviewed by an eye care provider (ECP). The device may communicate/transmit testing data to the ECP.
[0071] (2) ECP - ECP примет сообщение, говорящее о том, что рассматриваемое тестирование ожидает просмотра, и его система может принимать данные, собранные в пользовательском устройстве. ECP будет осуществлять доступ к защищенной онлайн-среде, в которой будут представлены детали тестирования: ответы пользователя на опросный лист, параметры тестирования и результаты для сферических, цилиндрических и осевых значений измерений. ECP просмотрит детали тестирования и определит то, утвердить или отвергнуть детали тестирования.[0071] (2) ECP - The ECP will receive a message indicating that the test in question is pending review and its system can accept data collected from the user device. The ECP will access a secure online environment that will provide test details: the user's responses to the questionnaire, test parameters, and results for spherical, cylindrical, and axial measurement values. The ECP will review the test details and determine whether to approve or reject the test details.
[0072] (3) Пользователь - Если детали тестирования были утверждены, пользователь получит свое предписание вместе с рекомендацией проверить свою скорректированную остроту зрения после получения своих очков и/или контактных линз, пройдя онлайн-тестирование остроты зрения. Если детали тестирования были отвергнуты, пользователь получит сообщение, направляющего его на осмотр к ECP лично.[0072] (3) User - If the testing details were approved, the user will receive their prescription along with a recommendation to test their corrected visual acuity upon receipt of their glasses and/or contact lenses by taking an online visual acuity test. If the testing details were rejected, the user will receive a message directing them to an in-person examination by the ECP.
[0073] Приведенная для примера пользовательская последовательность описана на фиг. 2, которая может быть инициирована, после того как пользователь загрузил приложение на свое мобильное устройство. Следующие параграфы детализируют каждое действие, иллюстрированное на фиг. 2. Этапы, действия и тесты, описанные в соединении с фиг. 2, могут быть применены, обойдены или пропущены, и следует понимать, что части процесса, показанного на фиг. 2, являются необязательными.[0073] An exemplary user flow is described in Fig. 2, which may be initiated after the user has downloaded the application to his mobile device. The following paragraphs detail each action illustrated in Fig. 2. The steps, actions, and tests described in connection with Fig. 2 may be applied, bypassed, or skipped, and it should be understood that portions of the process shown in Fig. 2 are optional.
[0074] Опросный лист - Когда пользователь в первый раз открывает приложение, пользователю может быть предложено оформить опросный лист перед продолжением работы. Опросный лист может получать пользовательскую медицинскую историю и рассматривает различные требования включения/исключения перед выполнением тестирования рефракции. Требования включения пользователя могут быть определены как включающие в себя: (1) Возраст между 18 и 39 годами; (2) Наличие нормального цветового зрения; (3) Были предписаны или использовались параметры однофокальных корректирующих очков в поддерживаемом диапазоне; и (4) Может использовать, понимать и отвечать на голосовые инструкции мобильного устройства.[0074] Questionnaire - When a user first opens the application, the user may be prompted to complete a questionnaire before continuing. The questionnaire may obtain the user's medical history and address various inclusion/exclusion requirements before performing refractive testing. The user's inclusion requirements may be defined as including: (1) Being between 18 and 39 years of age; (2) Having normal color vision; (3) Being prescribed or using single vision corrective eyeglasses in the supported range; and (4) Being able to use, understand, and respond to voice instructions from the mobile device.
[0075] Примеры требований исключения пользователя могут быть определены как включающие в себя следующее: (1) Были предписаны или использовались очки для чтения, многофокальные, бифокальные или прогрессивные линзы; (2) Имеет призматическую коррекцию в своем предписании; (3) Имеет историю амблиопии, диабетов, гипертонии, глаукомы, катаракт, отслоения сетчатки, косоглазия, травм головного мозга, неврологические проблемы и т.д.; или (4) Испытывает недавний дискомфорт или симптомы резкой глазной боли, вспышки и/или плавающие пятна в глазах.[0075] Examples of user exclusion requirements may be defined as including the following: (1) Has been prescribed or is using reading glasses, multifocals, bifocals, or progressive lenses; (2) Has a prismatic correction in his or her prescription; (3) Has a history of amblyopia, diabetes, hypertension, glaucoma, cataracts, retinal detachment, strabismus, head injury, neurological problems, etc.; or (4) Has recent discomfort or symptoms of sharp eye pain, flashes of light, and/or floaters in the eyes.
[0076] Проверка того, поддерживается ли устройство - После того как пользователь был идентифицирован как часть указанной пользовательской популяции, приложение может проверять модель мобильного устройства и будет допускать устройства, имеющие необходимые конфигурации аппаратных средств и программного обеспечения (например, IPHONE X и выше с iOS 13.0 и выше и модели ANDROID согласно белому списку с OS ANDROID 6.0 MARSHMALLOW и выше). Автоматические тревожные оповещения могут оповещать пользователя, если мобильное устройство не поддерживается, или некоторые датчики (например, гиродатчик) не отвечают.[0076] Check if the device is supported - Once the user has been identified as part of the specified user population, the application may check the mobile device model and will accept devices that have the required hardware and software configurations (e.g., IPHONE X and above with iOS 13.0 and above and ANDROID models according to the whitelist with OS ANDROID 6.0 MARSHMALLOW and above). Automatic alerts may notify the user if the mobile device is not supported or if certain sensors (e.g., the gyro sensor) are not responding.
[0077] Приложение может использовать по меньшей мере два способа для измерений расстояния. Первый, датчик расстояния или глубины (например, датчик TRUEDEPTH® или проектор инфракрасной точки), который не требует калибровки, но не является доступным во всех мобильных устройствах, или второй, способ RGB-камеры (например, если специально предназначенные датчики глубины не доступны).[0077] The application may use at least two methods for distance measurements. First, a distance or depth sensor (e.g., a TRUEDEPTH® sensor or an infrared dot projector), which does not require calibration but is not available in all mobile devices, or second, an RGB camera method (e.g., if dedicated depth sensors are not available).
[0078] Ознакомление - Если мобильное устройство поддерживается, пользователь может быть направлен через этап ознакомления. Ознакомление может включать в себя следующие этапы: (1) Представление страницы "О продукте", которая вводит пользователей в приложение, (2) представление пользовательского соглашения с уведомлением о конфиденциальности приложения и терминами и условиями, и (3) запрос доступа к требуемым функциям телефона (например, камере, микрофону и распознаванию речи). Ознакомление может также содержать предоставление руководства пользователям о требованиях к среде тестирования.[0078] Onboarding - If the mobile device is supported, the user may be directed through an onboarding step. The onboarding may include the following steps: (1) Presenting an "About" page that introduces users to the application, (2) Presenting a user agreement with the application's privacy notice and terms and conditions, and (3) Requesting access to desired phone features (e.g., camera, microphone, and speech recognition). The onboarding may also include providing guidance to users about the requirements of the testing environment.
[0079] Обучение - Далее, пользователи могут быть направлены через этап обучения. Обучение (схематично показано на фиг. 3) может быть интерактивной последовательностью операций, когда пользователь будет настраивать условия окружения тестирования для онлайн-тестирования рефракции. Этапы в обучении могут включать в себя операции, чтобы: (1) Направлять пользователя о том, как размещать устройство; (2) Гарантировать, что устройство размещено в устойчивом состоянии; (3) Гарантировать, что устройство размещено в портретном положении; (4) Гарантировать, что устройство размещено под правильным углом; (5) Гарантировать, что лицо пользователя обнаруживается; (6) Направлять пользователя, чтобы снимать его очки и закрывать левый глаз; и (7) Гарантировать, что пользователь понимает, как использовать аудиосвязь.[0079] Training - Next, users may be guided through a training step. The training (shown schematically in Fig. 3) may be an interactive sequence of operations where the user will set up the testing environment conditions for online refractive testing. The steps in the training may include operations to: (1) Guide the user on how to place the device; (2) Ensure that the device is placed in a stable state; (3) Ensure that the device is placed in a portrait position; (4) Ensure that the device is placed at the correct angle; (5) Ensure that the user's face is detected; (6) Guide the user to remove his glasses and cover his left eye; and (7) Ensure that the user understands how to use the audio communication.
[0080] Тестирование рефракции (левый и правый глаза) - Тестирование 400 рефракции может проводиться для каждого глаза отдельно, начиная, например, с правого глаза пользователя, как показано на фиг. 4, затем переключаясь на левый глаз.[0080] Refraction Testing (Left and Right Eyes) - Refraction testing 400 may be performed for each eye separately, starting, for example, with the user's right eye, as shown in Fig. 4, then switching to the left eye.
[0081] Формы - Этап форм (т.е. тестирование 402 форм) может включать в себя действия для отсеивания пользователей с сильной близорукостью, эмметропией и дальнозоркостью, которые должны быть исключены из тестирования (т.е. < -5D и > -1D); и нахождения приближенной сферы измеряемого глаза.[0081] Shapes - The shape step (i.e., 402 shape testing) may include steps to screen out users with severe myopia, emmetropia, and hyperopia who should be excluded from testing (i.e., < -5D and > -1D); and finding the approximate sphere of the eye being measured.
[0082] Цели в тестировании форм могут быть сконфигурированы и предназначены для того, чтобы акцентировать внимание на пространственных изотропических признаках, в то время как цель находится в пределах расстояния, соответствующего рефракционному нарушению сферэквивалента. Когда цель находится дальше расстояния сферы, цель может пропадать (т.е. размытые отличительные признаки цели воспринимаются как смешивающиеся с фоном). Формы могут "появляться" для испытуемого непосредственно, когда пользователь достигает расстояния, где изображение первоначально попадает на сетчатку глаза, таким образом, получая MDBA для эквивалентной оптической силы сферы.[0082] Targets in shape testing may be configured and designed to emphasize spatial isotropic features while the target is within a distance corresponding to the refractive error of the sphere equivalent. When the target is beyond the sphere distance, the target may disappear (i.e., the blurred target features are perceived as blending into the background). Shapes may "appear" to the subject directly when the user reaches the distance where the image initially strikes the retina, thereby obtaining an MDBA for the sphere equivalent power.
[0083] Цель для отсева может включать в себя одну большую форму (например, утку) и две малые формы (например, небольшие утки, как показано на фиг. 5), и цель для определения местоположения приближенной сферы состоит из сочетания первой формы и набора других форм (фиг. 6). Количество первой формы и дополнительных форм (и их порядок) могут быть показаны случайным образом.[0083] The screening target may include one large shape (e.g., a duck) and two small shapes (e.g., small ducks, as shown in Fig. 5), and the target for determining the location of the approximate sphere consists of a combination of the first shape and a set of other shapes (Fig. 6). The number of the first shape and the additional shapes (and their order) may be shown randomly.
[0084] Пример тестирования форм изображен на фиг. 7 для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование форм может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0084] An example of shape testing is shown in Fig. 7 for a user whose right eye has a -3D sphere, a -0.5D cylinder, and an axis of 135 degrees. Shape testing may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[0085] Радиальные отрезки и кольца (Spokes and Rings, SNR) - Тестирование 404 с радиальными отрезками и кольцами (SNR) может включать в себя: (1) Идентификацию того, имеет ли пользователь астигматизм, (2) Измерение оси цилиндра, если астигматизм существует и (3) Измерение оптической силы сферы путем получения MDBA признаков на указанном меридиане.[0085] Spokes and Rings (SNR) - Spokes and Rings (SNR) testing 404 may include: (1) Identifying whether the user has astigmatism, (2) Measuring the axis of a cylinder if astigmatism exists, and (3) Measuring the optical power of a sphere by obtaining MDBA features at a specified meridian.
[0086] Если существует асимметричная оптическая аберрация, такая как астигматизм, воспринимаемое SNR-изображение (например, цель, показанная на фиг. 8) может выглядеть деформированным для испытуемого согласно астигматической аберрации. Когда телефон располагается рядом с расстоянием сферы, пространственные признаки, выровненные по оси астигматизма "падают" на сетчатку глаза и, таким образом, воспринимаются как темные и резкие линии, в то время как перпендикулярные признаки фокусируются как передние по отношению к сетчатке глаза, таким образом, воспринимаются серыми и размытыми.[0086] If an asymmetric optical aberration such as astigmatism exists, the perceived SNR image (e.g., the target shown in Fig. 8) may appear deformed to the subject according to the astigmatic aberration. When the phone is placed near the distance of the sphere, spatial features aligned with the astigmatism axis "fall" onto the retina of the eye and are thus perceived as dark and sharp lines, while perpendicular features are focused as being in front of the retina of the eye and are thus perceived as gray and blurred.
[0087] После того как некая ось идентифицирована, где некоторые линии являются более темными по сравнению с другими (случай астигматизма), или в случае отсутствия астигматизма (сферического), когда все линии воспринимаются симметрично, пользователь может предоставлять обратную связь, располагая по рангу воспринимаемую резкость и темноту линий на более дальних расстояниях по числовой шкале. Идентификация самого дальнего расстояния воспринимаемой резкости, за которым линии кажутся размытыми, используется для определения MDBA оптической силы сферы.[0087] Once an axis has been identified where some lines are darker than others (astigmatic), or in the absence of astigmatism (spherical) where all lines are perceived symmetrically, the user can provide feedback by ranking the perceived sharpness and darkness of lines at further distances on a numerical scale. The identification of the farthest distance of perceived sharpness beyond which lines appear blurred is used to determine the MDBA of the sphere.
[0088] Приведенная для примера SNR-цель показана на фиг. 8. "Радиальные отрезки" могут быть помечены различными цветами, чтобы помогать пользователям идентифицировать, какие линии кажутся самыми темными или "самыми черными", и насколько резкими эти линии являются по числовой шкале, как указано на фиг. 9A-9B.[0088] An exemplary SNR target is shown in Fig. 8. The "radial segments" may be labeled with different colors to help users identify which lines appear darkest or "blackest" and how sharp these lines are on a numerical scale, as indicated in Figs. 9A-9B.
[0089] Пример тестирования SNR изображен на фиг. 9A-9B для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование SNR может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0089] An example of SNR testing is shown in Fig. 9A-9B for a user whose right eye has a -3D sphere, -0.5D cylinder, and 135 degree axis. SNR testing may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[0090] Ахроматическая монорешетка - Тестирование 406 ахроматической монорешетки может уточнять значение измерения оптической силы сферы и, для астигматизма, получает значение измерения оптической силы цилиндра. Приведенная для примера цель ахроматической монорешетки изображена на фиг. 10. Цель предназначена, чтобы смешивать две параллельные средние яркие линии в темную прямоугольную фоновую полосу, когда привносится легкая размытость, и, следовательно, имеет бинарное восприятие испытуемым (т.е. он только видит или не видит цель). Цель имеет одномерные признаки (т.е. линии) и может быть повернута до тестируемого меридиана; таким образом, ответы относятся к силе конкретного тестируемого повернутого меридиана (например, меридиана, идентифицированного в соединении с тестированием SNR). Это предоставляет возможность системе получать MDBA испытуемого посредством необходимости пользователю отступать (т.е. перемещаться от отображаемого изображения) до тех пор, пока средние светлые линии больше не будут проявляться, и предоставлять обратную связь на таких расстояниях. Отображение цели с несколькими частотами (т.е. частотами обновления отображения) используется для идентификации функции оптического переноса и получения сферической и ближней сил, соответственно.[0090] Achromatic Monograting - Testing 406 of an achromatic monograting may specify a spherical power measurement value and, for astigmatism, obtain a cylinder power measurement value. An exemplary achromatic monograting target is shown in Fig. 10. The target is designed to blend two parallel mid-bright lines into a dark rectangular background strip when a slight blur is introduced and, therefore, has a binary perception by the subject (i.e., he only sees or does not see the target). The target has one-dimensional features (i.e., lines) and can be rotated to the meridian being tested; thus, the responses are related to the power of the specific rotated meridian being tested (e.g., the meridian identified in conjunction with the SNR testing). This enables the system to obtain the subject's MDBA by requiring the user to back away (i.e., move away from the displayed image) until the mid-bright lines are no longer visible, and to provide feedback at such distances. Displaying the target at multiple frequencies (i.e., display refresh rates) is used to identify the optical transfer function and obtain the spherical and near forces, respectively.
[0091] Пример тестирования ахроматической монорешетки изображен на фиг. 11A-11G для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование ахроматической монорешетки может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые системой тестирования, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0091] An example of testing an achromatic monograting is shown in Figs. 11A-11G for a user whose right eye has a -3D sphere, a -0.5D cylinder, and a 135 degree axis. Testing an achromatic monograting may vary depending on the user's responses to cues provided by the testing system, such as repeating steps, changing the images shown, waiting for the subject, etc.
[0092] Подтверждение цилиндра (CYL) - Тестирование 410 для подтверждения цилиндра (CYL) может уточнять осевое измерение и получать значение измерения ближней силы с использованием подхода MDBA путем обработки расчетного вектора резкости для меридиана цилиндра. Приведенная для примера цель для подтверждения CYL показана на фиг. 12. Наблюдение эффекта угла астигматизма для представленных признаков является оптимальным, когда рассматривается на расстоянии сферы. После того как оптическая сила сферы получена (например, с использованием цели ахроматической монорешетки на фиг. 10, и как описано выше), осевое измерение повторяется на расстоянии сферы (в противоположность приближенному расстоянию сферэквивалента). Кроме того, чтобы увеличивать разрешение осевого измерения, система может использовать процедуру сверхвысокого разрешения с целью низкого разрешения. Другими словами, цель, с конкретным основным угловым признаком, таким как угол, созданный двумя соседними радиальными отрезками, может быть повернута на половину этого основного угла. Затем, два (или более) показателей измерений могут быть усреднены.[0092] Cylinder Verification (CYL) - Testing 410 for cylinder verification (CYL) can refine the axial measurement and obtain a near power measurement value using the MDBA approach by processing the estimated sharpness vector for the cylinder meridian. An example target for CYL verification is shown in FIG. 12. Observation of the effect of the astigmatism angle for the presented features is optimal when viewed at a sphere distance. After the sphere power is obtained (e.g., using the achromatic monograting target of FIG. 10, and as described above), the axial measurement is repeated at the sphere distance (as opposed to the approximate sphere equivalent distance). In addition, in order to increase the resolution of the axial measurement, the system can use a super-resolution procedure on a low resolution target. In other words, a target with a particular fundamental angular feature, such as the angle created by two adjacent radial segments, can be rotated by half of this fundamental angle. Then, two (or more) measurement values can be averaged.
[0093] Получение MDBA для признаков, представленных на меридиане цилиндра, соответствует ближней силе. Позиционирование телефона рядом с приближенной ближней силой (полученной на предыдущих этапах) и проведение опроса о резкости, воспринимаемой пользователем для признаков, которые совпадают с осью цилиндра, предоставляет количественную меру для функции MDBA около ближней силы.[0093] Obtaining MDBA for features presented on the cylinder meridian corresponds to the near force. Positioning the phone near the approximate near force (obtained in the previous steps) and conducting a survey about the user's perceived sharpness for features that coincide with the cylinder axis provides a quantitative measure of the MDBA function near the near force.
[0094] Пример тестирования для подтверждения CYL изображен на фиг. 13 для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование для подтверждения CYL может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0094] An example of testing for CYL confirmation is shown in Fig. 13 for a user whose right eye has a -3D sphere, -0.5D cylinder, and a 135 degree axis. Testing for CYL confirmation may vary depending on the user's responses to cues provided by the application, such as repeating steps, changing the images shown, waiting for the subject, etc.
[0095] Уточнение оси - Тестирование для уточнения оси может уточнять осевое значение измерения посредством приема обратной связи по наиболее темным линиям, в то время как сама цель поворачивается на меньшие углы по сравнению с углами между двумя соседними радиальными отрезками. Приведенная для примера цель, используемая для тестирования для уточнения оси, может быть такой же, что и цель, используемая для SNR-тестирования (т.е. фиг. 8).[0095] Axis Refinement - Axis refinement testing may refine the axial measurement value by receiving feedback on the darkest lines while the target itself is rotated at smaller angles than the angles between two adjacent radial segments. An example target used for axis refinement testing may be the same as the target used for SNR testing (i.e., FIG. 8).
[0096] Пример тестирования для уточнения оси изображен на фиг. 14 для пользователя, чей правый глаз имеет сферу -3D, цилиндр 1,5D и ось 5 градусов. Тестирование для уточнения оси может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0096] An example of an axis refinement test is shown in Fig. 14 for a user whose right eye has a -3D sphere, a 1.5D cylinder, and a 5 degree axis. The axis refinement test may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[0097] Управление аккомодацией - Тестирование 412 для управления аккомодацией может подтверждать оптическую силу сферы в процедуре ослабления аккомодации. При условии, что оба глаза пользователя открыты, предоставляется возможность глазам достигать минимального аккомодационного состояния. Цель, используемая для тестирования для управления аккомодацией, может быть такой же, что и цель, использованная для тестирования ахроматической монорешетки (например, фиг. 10). Система может требовать быстрых ответов (например, в течение примерно 2-3 секунд) по отношению к цели, после того как тестируемый глаз закрывается снова. В таком коротком периоде времени нежелательная аккомодация еще не вносит свою долю, и, следовательно, глаз испытывается практически или полностью в свободном от аккомодации состоянии.[0097] Accommodation control - Accommodation control testing 412 may confirm the optical power of the sphere in an accommodation attenuation procedure. Provided that both eyes of the user are open, the eyes are allowed to achieve a minimal accommodative state. The target used for accommodation control testing may be the same as the target used for testing the achromatic monograting (e.g., Fig. 10). The system may require rapid responses (e.g., within about 2-3 seconds) to the target after the eye being tested is closed again. In such a short period of time, unwanted accommodation has not yet contributed, and therefore the eye is tested in a substantially or completely accommodation-free state.
[0098] Пример тестирования для управления аккомодацией изображен на фиг. 15A-15B для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование для управления аккомодацией может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[0098] An example of testing for accommodation control is shown in Fig. 15A-15B for a user whose right eye has a -3D sphere, -0.5D cylinder, and a 135 degree axis. Testing for accommodation control may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[0099] Острота зрения (VA) - Тестирование 414 остроты зрения (VA) может подтверждать, что наилучшая корригированная острота зрения (BCVA) при определенном рефракционном нарушении равна 20/25 или лучше. Цель, используемая для VA-тестирования, является такой же, что и цель, использованная для тестирования ахроматической монорешетки (например, фиг. 10). Показанная цель может представлять две светлые линии, разделенные 6 дуговыми минутами. Размер символа для исследования диабетической ретинопатии для своевременного лечения (ETDRS) 20/20 равен 5 дуговым минутам с каждой полосой 1 дуговая минута. Низкоконтрастные линии с высококонтрастным фоном преодолевают интервал разрешения. Получение остроты зрения на различных меридианах без цилиндрических линз используется посредством совмещения одномерной цели с тестируемым меридианом.[0099] Visual Acuity (VA) - Visual acuity (VA) testing 414 may confirm that the best corrected visual acuity (BCVA) for a given refractive error is 20/25 or better. The target used for VA testing is the same as the target used for testing the achromatic monograting (e.g., Fig. 10). The target shown may be two bright lines separated by 6 arc minutes. The Early Treatment Diabetic Retinopathy Study (ETDRS) 20/20 symbol size is 5 arc minutes with each band 1 arc minute. Low contrast lines with a high contrast background span the resolution interval. Visual acuity at different meridians without cylindrical lenses is obtained by aligning a one-dimensional target with the meridian being tested.
[00100] Пример VA-тестирования изображен на фиг. 16 для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. VA-тестирование может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[00100] An example of VA testing is shown in Fig. 16 for a user whose right eye has a -3D sphere, -0.5D cylinder, and 135 degree axis. VA testing may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[00101] Величина цилиндра (CYL) - Тестирование 416 величины цилиндра (CYL) может подтверждать оптическую силу цилиндра, в то же время смягчая какие-либо временные изменения в аккомодационном состоянии. Кроме того, тестирование величины CYL получается при измерении оптической силы сферы. Приведенная для примера цель, используемая для тестирования величины CYL, показана на фиг. 17, которая включает в себя пару темных полос, ориентированных под разными углами относительно друг друга, и каждая темная полоса имеет соответствующую пару светлых параллельных линий, проходящих через них. Штриховая линия разделяет темные полосы на левую и правую стороны целевого изображения, и два индикатора (например, символа) обозначают различные стороны штриховой линии. Когда первичные показатели измерения оптической силы цилиндра получаются из оптической силы сферы и ближней силы, проводимого в два различных момента времени, изменение аккомодационного состояния между ними может влиять на вычисленную оптическую силу цилиндра. Чтобы смягчать это, пользователь может позиционироваться на расстоянии своей силы сферы, на котором достигается пороговое значение требуемого разрешения для каждого главного меридиана (т.е. меридиана сферы). Система может затем направлять пользователя, чтобы идентифицировать дельту LogMAR и расстояние, на котором пользователь сдвигается из позиции, где он может идентифицировать оба меридиана, в позицию примерно +0,25D, где оба меридиана больше не могут быть идентифицированы. Система может затем подтверждать оптическую силу цилиндра из дельты между целями меридиана.[00101] Cylinder Magnitude (CYL) - Cylinder Magnitude (CYL) testing 416 can confirm the cylinder power while mitigating any temporal changes in the accommodative state. Additionally, CYL magnitude testing is obtained by measuring the sphere power. An exemplary target used for CYL magnitude testing is shown in FIG. 17, which includes a pair of dark bands oriented at different angles relative to each other, and each dark band has a corresponding pair of light parallel lines passing through them. A dashed line divides the dark bands into left and right sides of the target image, and two indicators (e.g., symbols) indicate different sides of the dashed line. When the primary cylinder power measurement metrics are obtained from the sphere power and the near power taken at two different times, a change in the accommodative state between them can affect the calculated cylinder power. To mitigate this, the user can position themselves at the distance of their sphere power at which the threshold of the required resolution is reached for each principal meridian (i.e., the sphere meridian). The system can then guide the user to identify the LogMAR delta and the distance at which the user moves from a position where they can identify both meridians to a position of approximately +0.25D where both meridians can no longer be identified. The system can then confirm the cylinder power from the delta between the meridian targets.
[00102] Пример тестирования величины CYL изображен на фиг. 18A-18B для пользователя, чей правый глаз имеет сферу -3D, цилиндр -0,5D и ось 135 градусов. Тестирование величины CYL может отличаться в зависимости от ответов пользователя на подсказки, предоставляемые приложением, например, посредством повторения этапов, изменения показываемых изображений, ожидания испытуемого и т.д.[00102] An example of testing the CYL value is shown in Fig. 18A-18B for a user whose right eye has a -3D sphere, -0.5D cylinder, and a 135 degree axis. Testing the CYL value may vary depending on the user's responses to cues provided by the application, such as by repeating steps, changing the images shown, waiting for the subject, etc.
[00103] Размытый фон - Тестирование 418 размытого фона определяет окончательное MDBA, в то же время смягчая аккомодацию. Система может задавать расстояние пользователя примерно при +0,75D размытии от конечной сферы и может подтверждать, что пользователь не может достичь лучшего разрешения, чем 0,55 LogMAR с использованием цели ахроматической монорешетки (например, фиг. 10). Система может применять способы ослабления аккомодации, которые подталкивают пользователя в более отдаленное местоположение от экрана дисплея, в то же время поддерживая ту же лучшую корригированную остроту зрения. Это получается из методологии, используемой в оптометрии для смягчения аккомодации посредством помещения +1,00D линз сверх полученного предписания испытуемого и подтверждения того, что острота зрения ухудшилась, как ожидалось, посредством +1,00D линзы. В то время как при этом миопическом сдвиге какая-либо лишняя аккомодация будет обеспечивать более плохое зрение, пользователь вероятно должен ослаблять аккомодацию. Аналогично, система может подталкивать пользователя дальше от полученных оптической силы сферы или ближней силы, создавая те же +1,00D в вергентных движениях глазных яблок.[00103] Blurred Background - The 418 blurred background test determines the final MDBA while relaxing the accommodation. The system may set the user's distance to approximately +0.75D blur from the final sphere and may confirm that the user cannot achieve better resolution than 0.55 LogMAR using an achromatic monograting target (e.g., Fig. 10). The system may employ accommodation relaxation techniques that push the user to a more distant location from the display screen while maintaining the same best corrected visual acuity. This is derived from the methodology used in optometry to relax accommodation by placing +1.00D lenses above the subject's received prescription and confirming that visual acuity has deteriorated as expected with the +1.00D lens. While any extra accommodation will produce poorer vision with this myopic shift, the user should probably reduce accommodation. Likewise, the system can push the user further away from the received sphere or near power, creating the same +1.00D in vergence eye movements.
[00104] "Дайте вашим глазам отдохнуть" - На всем протяжении последовательности операций процесса на фиг. 4 и между тестами/этапами в последовательности операций приложение направляет пользователя, чтобы дать отдых его глазам, глядя вдаль, насколько возможно (например, до линии горизонта, за окно и т.д.).[00104] "Give Your Eyes a Rest" - Throughout the process flow of Fig. 4 and between tests/steps in the process flow, the application guides the user to rest their eyes by looking as far away as possible (e.g., to the horizon, out the window, etc.).
[00105] Последовательность операций для второго глаза - В конце последовательности операций для первого глаза (например, правый глаз тестировался) система может инструктировать пользователю закрывать другой глаз (например, левый глаз) и обеспечивать ввод (например, щелчок) для продолжения. Последовательность операций тестирования второго глаза (например, начиная в блоке 420) может пропускать обучающие блоки и может включать в себя короткие версии звуковых инструкций, предоставленных ранее, во время следования последовательности операций для первого глаза.[00105] Second eye sequence - At the end of the first eye sequence (e.g., the right eye was tested), the system may instruct the user to close the other eye (e.g., the left eye) and provide input (e.g., a click) to continue. The second eye testing sequence (e.g., beginning at block 420) may skip training blocks and may include short versions of the audio instructions provided earlier during the first eye sequence.
[00106] Результаты - После того как оба глаза оценены с помощью теста рефракции, пользователю может быть предоставлено сообщение 422, говорящее о том, что тестирование завершено, и что результаты были электронным образом отправлены к ECP. ECP может использовать эти результаты и данные опросного листа как часть своего всеобъемлющего диагностического процесса. Пользователь может не иметь возможности просматривать свои результаты в приложении до тех пор, пока ECP не проверит результаты и не напишет предписание для очков и/или контактных линз.[00106] Results - After both eyes have been evaluated using the refraction test, the user may be presented with a 422 message stating that the testing is complete and that the results have been electronically sent to the ECP. The ECP may use these results and the questionnaire data as part of its comprehensive diagnostic process. The user may not be able to view their results in the application until the ECP verifies the results and writes a prescription for glasses and/or contact lenses.
[00107] Обзор разработки устройства[00107] Device Development Overview
[00108] Фиг. 19 иллюстрирует приведенную для примера блочную схему системы программного обеспечения. Система состоит из приложения мобильного устройства, облачных серверов и веб-клиента SPA (одностраничное приложение). Система может быть предназначена, чтобы поддерживать различные операционные системы и устройства, такие как, например, мобильные устройства на основе IOS и ANDROID (в белом списке поддерживаемых устройств).[00108] Fig. 19 illustrates an exemplary block diagram of a software system. The system consists of a mobile device application, cloud servers, and a SPA (single page application) web client. The system may be designed to support various operating systems and devices, such as, for example, IOS and ANDROID-based mobile devices (on the white list of supported devices).
[00109] Каждый из следующих компонентов может работать отдельно в различной среде: приложение IOS/ANDROID, PHP-сервер, работающий на сервере (например, AWS-сервере), CMS (административный клиент), работающий в браузере (например, браузере CHROME® (загруженном с сервера)).[00109] Each of the following components can run separately in a different environment: IOS/ANDROID application, PHP server running on a server (e.g. AWS server), CMS (administration client) running in a browser (e.g. CHROME® browser (downloaded from the server)).
[00110] Система может быть спроектирована по классической архитектуре клиент-сервер. Клиенты представляют данные пользователю и принимают пользовательские входные данные, а сервер получает запросы от клиента, подготавливает данные и отправляет их обратно клиенту. Система использует архитектуру "тонкий клиент" повсюду, где возможно. Основная логика системы встречается только на сервере. Только обязательная логика реального времени вычисляется на клиенте.[00110] The system can be designed using a classic client-server architecture. Clients present data to the user and accept user input, and the server receives requests from the client, prepares the data, and sends it back to the client. The system uses a thin-client architecture wherever possible. The core logic of the system occurs only on the server. Only the required real-time logic is computed on the client.
[00111] Клиент системы может быть разделен на SDK (набор инструментальных средств для разработки программного обеспечения), отвечающий за все экраны приложения тестирования и логику, и приложение, обслуживающее контейнер, запускающий SDK.[00111] The system client can be divided into an SDK (software development kit) responsible for all the testing application screens and logic, and an application serving the container that runs the SDK.
[00112] Приложение для тестирования и связанная система могут включать в себя различные программные модули.[00112] The testing application and the associated system may include various software modules.
[00113] Client Mobile GlassesOnSDK - Этот модуль может быть сконфигурирован как обертка для всего клиентского кода приложения для тестирования. Вся логика, входные данные датчиков и возможность сетевого соединения с сервером выполняются в этом высокоуровневом модуле. Этот модуль может также оборачивать другой клиентский код продукта. API этого модуля может быть использован для интеграции функциональности приложения тестирования в третьесторонние приложения.[00113] Client Mobile GlassesOnSDK - This module can be configured as a wrapper for all client code of the testing application. All logic, sensor inputs, and network connectivity to the server are performed in this high-level module. This module can also wrap other client code of the product. The API of this module can be used to integrate the functionality of the testing application into third-party applications.
[00114] Client Mobile GoEyes Application - Этот модуль может быть сконфигурирован как контейнер, запускающий только Client Mobile GlassesOnSDK, и может предоставлять возможность тестировать, разворачивать и распространять функциональность SDK внутри приложения.[00114] Client Mobile GoEyes Application - This module can be configured as a container running only the Client Mobile GlassesOnSDK and can provide the ability to test, deploy, and distribute SDK functionality within the application.
[00115] Client Session Manager Module - Этот модуль может быть сконфигурирован, чтобы отвечать за всю логику клиентской стороны в исследовании приложения тестирования. Логика для некоторой части процесса исследования приложения тестирования должна вычисляться в реальном времени. Эта логика может быть записана в/включена в этот модуль. Определение модуля и параметры могут быть приняты из подмодулей Server Session Manager Module Flows и Pages. Модуль может принимать или получать параметры от сервера (данные из модулей Sensor Input Modules и результат решения из модуля Client State Machine Logic Module) и принимать решение о том, что представлять потребителю в клиентском приложении. Этот модуль может быть использован в качестве моста для возможности сетевого соединения между клиентом и сервером.[00115] Client Session Manager Module - This module may be configured to be responsible for all client-side logic in the testing application exploration. The logic for some portion of the testing application exploration process must be evaluated in real time. This logic may be written to/included in this module. The module definition and parameters may be taken from the Server Session Manager Module Flows and Pages submodules. The module may accept or receive parameters from the server (data from the Sensor Input Modules and the decision result from the Client State Machine Logic Module) and decide what to present to the consumer in the client application. This module may be used as a bridge for network connectivity between the client and the server.
[00116] Client State Machine Logic Module - Этот модуль может быть подмодулем для Client Session Manager Module. Этот модуль может быть специально предназначен, чтобы хранить логику клиентской стороны для принятия решения о том, что представлять пользователю в отношении входных данных от датчиков и текущего состояния в последовательности операций. Эта клиентская логика может быть логикой реального времени, таким образом, она не может использовать Server Session Manager Module.[00116] Client State Machine Logic Module - This module may be a submodule of the Client Session Manager Module. This module may be specifically designed to contain client-side logic for deciding what to present to the user regarding sensor input and the current state of the workflow. This client logic may be real-time logic, so it cannot use the Server Session Manager Module.
[00117] Client Sensor Input Modules (Services) - Этот модуль может быть сконфигурирован как обертка для всех подмодулей служб датчиков на клиенте. Каждая служба получает исходные данные от датчика и запускает уместные вычисления по данным и предоставляет результаты в Client Session Manager Module. Некоторые службы запускают нейронные сети в отношении данных, принятых от датчиков, например, с использованием инфраструктуры CORE ML (IOS)/TENSORFLOWLITE (ANDROID).[00117] Client Sensor Input Modules (Services) - This module can be configured as a wrapper for all sensor service submodules on the client. Each service receives raw data from a sensor and runs relevant computations on the data and provides the results to the Client Session Manager Module. Some services run neural networks on the data received from sensors, for example using the CORE ML (IOS)/TENSORFLOWLITE (ANDROID) framework.
[00118] Server Session Manager - GoEyes Server Logic Module - Этот модуль может отвечать за всю логику в исследовании приложения тестирования. Логика может быть разделена на последовательности операции. Каждая последовательность операций является определением конечного автомата для страниц, просматриваемых потребителем. Последовательность операций может определять порядок страниц. Каждый подмодуль страницы является определением того, что просматривается потребителем, и всей внутренней логики этой конкретной страницы (т.е. экрана). Этот модуль может снабжать клиента всей информацией, необходимой для принятия решения о том, какая следующая страница должна быть представлена на клиенте, и всеми параметрами того, как показывать страницу, и ее внутренний режим работы.[00118] Server Session Manager - GoEyes Server Logic Module - This module can be responsible for all the logic in a testing application study. The logic can be divided into workflows. Each workflow is a definition of a state machine for the pages viewed by the consumer. A workflow can define the order of the pages. Each page submodule is a definition of what the consumer is viewing and all the internal logic of that particular page (i.e. screen). This module can supply the client with all the information needed to decide what page should be presented to the client next and all the parameters for how to display the page and its internal behavior.
[00119] Server Request Processing Module - Этот модуль является общим модулем, охватывающим функциональность сервера, поддерживающую главный логический модуль - GoEyes Server Logic Module. Этот модуль обеспечивает сетевое взаимодействие, безопасность, ведение журнала и серверную маршрутизацию.[00119] Server Request Processing Module - This module is a general module that covers server functionality that supports the main logic module - GoEyes Server Logic Module. This module provides networking, security, logging, and server routing.
[00120] Server Data Access Module - Этот модуль является общим модулем, отвечающим за сохранение считываемых данных из базы данных. Этот модуль хранит необходимую информацию схемы и сохраняет все сеансы приложения тестирования, когда используется модулем GoEyes Server Logic Module.[00120] Server Data Access Module - This module is a general module responsible for storing the data read from the database. This module stores the necessary schema information and saves all the sessions of the testing application when used by the GoEyes Server Logic Module.
[00121] Administration CMS SPA Module - Этот модуль является главной консолью администрирования системы. Модуль является одностраничным приложением, построенным на таком языке как JAVASCRIPT®. Этот модуль может предоставлять возможность просматривать все данные сеансов приложения тестирования.[00121] Administration CMS SPA Module - This module is the main console for system administration. The module is a single-page application built on a language such as JAVASCRIPT®. This module can provide the ability to view all data from testing application sessions.
[00122] Фиг. 20 показывает функциональную схему системы 2000 тестирования субъективного оптического параметра. Система 2000 может включать в себя совокупность функциональных модулей, которые взаимодействуют для выполнения способов, описанных в настоящем документе. Например, система 2000 может быть, в широком смысле, сконфигурирована, чтобы запрашивать, принимать, анализировать и обрабатывать субъективные показатели зрения от испытуемого, чтобы определять оптические параметры глаза испытуемого. [00122] Fig. 20 shows a functional diagram of a system 2000 for testing a subjective optical parameter. The system 2000 may include a plurality of functional modules that interact to perform the methods described herein. For example, the system 2000 may be broadly configured to request, receive, analyze, and process subjective vision indicators from a test subject to determine optical parameters of the test subject's eye.
[00123] Для этого система 2000 может включать в себя модуль 2002 управления отображением и изображением. Модуль 2002 управления отображением и изображением может быть сконфигурирован, чтобы отображать по меньшей мере одно изображение испытуемому. Отображаемое изображение(я) может включать в себя какое-либо из изображений, упомянутых выше для различных процедур тестирования и этапов, включающих в себя, например, какой-либо из этапов, тестов и процедур, показанных и описанных в соединении с фиг. 4, и связанных этапов, тестов и процедур, описанных в соединении с фиг. 5-18B. Модуль 2002 управления отображением и изображением может, следовательно, выбирать изображения для отображения испытуемому на основе оптического параметра, тестируемого в настоящий момент (например, изображение для тестирования для управления аккомодацией, радиальных отрезков и колец и т.д.), отображать выбранное изображение испытуемому (например, через электронный дисплей, подобный устройству110 отображения) и может отображать инструкции испытуемому (например, инструкции изменить его позицию относительно изображения/дисплея, инструкции закрыть глаз и другие инструкции, описанные выше). В результате, модуль 2002 управления отображением и изображением может направлять испытуемого по тестированию (или набору тестов (например, последовательно)), чтобы определять оптический параметр глаза испытуемого.[00123] For this, the system 2000 may include a display and image control module 2002. The display and image control module 2002 may be configured to display at least one image to the test subject. The displayed image(s) may include any of the images mentioned above for various testing procedures and steps, including, for example, any of the steps, tests and procedures shown and described in connection with Fig. 4, and the related steps, tests and procedures described in connection with Fig. 5-18B. The display and image control module 2002 may therefore select images to display to the subject based on the optical parameter currently being tested (e.g., an image to test for accommodation control, radial segments and rings, etc.), display the selected image to the subject (e.g., via an electronic display similar to the display device 110), and may display instructions to the subject (e.g., instructions to change his position relative to the image/display, instructions to close the eye, and other instructions described above). As a result, the display and image control module 2002 may guide the subject through the testing (or a set of tests (e.g., sequentially)) to determine the optical parameter of the subject's eye.
[00124] В некоторых вариантах осуществления модуль 2004 организации входной информации может быть включен, чтобы получать и принимать входную информацию от испытуемого. Входная информация может быть "субъективной" входной информацией, означающей, что входная информация основана на восприятии испытуемым части теста (например, предоставленном указании испытуемого о визуальной четкости или его способности видеть или читать некие формы или объекты в изображениях, предоставляемых и отображаемых испытуемому), как противоположность объективной входной информации, такой как значение измерения глаза испытуемого с использованием внешнего инструмента. Модуль 2004 организации входной информации может управлять и принимать сигналы от устройства ввода, такого как, например, устройство ввода, соединенное с вычислительным устройством 106. В некоторых вариантах осуществления устройство ввода может содержать микрофон, клавиатуру, мышь или другой компьютерный интерфейс, сконфигурированный, чтобы преобразовывать пользовательские входные данные в считываемые компьютером сигналы. В некоторых вариантах осуществления устройство ввода может включать в себя камеру, и модуль 2004 организации входной информации может выполнять обнаружение формы, обнаружение текста или другие способы компьютерного зрения, чтобы обнаруживать пользовательские входные данные (например, жест большим пальцем вверх или знак "okay" рукой от испытуемого).[00124] In some embodiments, the input information management module 2004 may be included to receive and accept input information from the test subject. The input information may be "subjective" input information, meaning that the input information is based on the test subject's perception of a portion of the test (e.g., the test subject's provided indication of visual clarity or his ability to see or read certain shapes or objects in images provided and displayed to the test subject), as opposed to objective input information, such as the test subject's eye measurement value using an external instrument. The input information management module 2004 may control and receive signals from an input device, such as, for example, an input device connected to the computing device 106. In some embodiments, the input device may comprise a microphone, keyboard, mouse, or other computer interface configured to convert user input data into computer-readable signals. In some embodiments, the input device may include a camera, and the input information organization module 2004 may perform shape detection, text detection, or other computer vision methods to detect user input (e.g., a thumbs up gesture or an "okay" hand sign from a test subject).
[00125] Модуль 2002 управления отображением и изображением и модуль 2004 организации входной информации могут работать вместе, чтобы предоставлять и принимать входную информацию от испытуемого во время процедуры тестирования. Например, модуль 2002 управления отображением и изображением может отображать набор форм испытуемому, в то время как модуль 2004 организации входной информации получает входную информацию, характеризующую сферу глаза испытуемого. Аналогично, модуль 2002 управления отображением и изображением может отображать набор радиальных отрезков и колец, изображение для управления аккомодацией или изображение для тестирования остроты зрения, а модуль 2004 организации входной информации может получать входную информацию, указывающую значение измерения цилиндра глаза, входную информацию, подтверждающую сферу глаза, или лучшую корригированную остроту зрения (BCVA) глаза, соответственно.[00125] The display and image control module 2002 and the input information organization module 2004 may work together to provide and receive input information from the test subject during the testing procedure. For example, the display and image control module 2002 may display a set of shapes to the test subject, while the input information organization module 2004 receives input information characterizing the sphere of the test subject's eye. Similarly, the display and image control module 2002 may display a set of radial segments and rings, an image for accommodation control, or an image for visual acuity testing, and the input information organization module 2004 may receive input information indicating a measurement value of the cylinder of the eye, input information confirming the sphere of the eye, or the best corrected visual acuity (BCVA) of the eye, respectively.
[00126] В некоторых вариантах осуществления модуль 2002 управления отображением и изображением может выводить изображения, такие как формы, имеющие различные характеристики внешнего вида, такие как изображения, которые являются меньшими или большими (например, как описано в соединении с фиг. 5-6 и где-либо еще в настоящем документе), повернутыми и т.д. Соответственно, отображенные изображения и принятые входные данные могут изменяться, когда последовательность тестов проводится в течение времени, чтобы обнаруживать субъективные аспекты зрения испытуемого.[00126] In some embodiments, the display and image control module 2002 may output images, such as shapes, having different appearance characteristics, such as images that are smaller or larger (e.g., as described in connection with Figs. 5-6 and elsewhere herein), rotated, etc. Accordingly, the displayed images and the received input data may change as the test sequence is conducted over time to detect subjective aspects of the test subject's vision.
[00127] Система 2000 может также включать в себя модуль 2006 связи, сконфигурированный, чтобы формировать сигнал, предоставляющий информацию о собранной входной информации от испытуемого. Например, модуль 2006 связи может быть сконфигурирован, чтобы взаимодействовать с внешним устройством (например, хранилищем 104 данных или серверами или администраторами, раскрытыми в связи с фиг. 19). Модуль 2006 связи может, следовательно, быть использован для передачи информации об испытуемом, выполняемых тестах, определенных оптических параметрах глаза и связанной информации, раскрытой в настоящем документе.[00127] The system 2000 may also include a communication module 2006 configured to generate a signal providing information about the collected input information from the subject. For example, the communication module 2006 may be configured to interact with an external device (e.g., the data storage 104 or the servers or administrators disclosed in connection with Fig. 19). The communication module 2006 may therefore be used to transmit information about the subject, the tests performed, the determined optical parameters of the eye, and the related information disclosed herein.
[00128] Различные изобретения были описаны в настоящем документе со ссылкой на некоторые конкретные варианты осуществления и примеры. Однако специалистами в области техники будет признано, что многие разновидности возможны без отступления от объема и сущности изобретений, раскрытых в настоящем документе, и что эти изобретения, изложенные в формуле изобретения ниже, предназначаются, чтобы покрывать все разновидности и модификации раскрытых изобретений без отступления от сущности изобретений. Термины "включающий в себя:" и "имеющий", когда используются в спецификации и формуле изобретения, должны иметь то же значение, что и термин "содержащий/включающий".[00128] Various inventions have been described herein with reference to certain specific embodiments and examples. However, it will be recognized by those skilled in the art that many variations are possible without departing from the scope and spirit of the inventions disclosed herein, and that the inventions set forth in the claims below are intended to cover all variations and modifications of the disclosed inventions without departing from the spirit of the inventions. The terms "including:" and "having," when used in the specification and claims, shall have the same meaning as the term "comprising/including."
Claims (36)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US63/044,910 | 2020-06-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2846045C1 true RU2846045C1 (en) | 2025-08-29 |
Family
ID=
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6072443A (en) * | 1996-03-29 | 2000-06-06 | Texas Instruments Incorporated | Adaptive ocular projection display |
RU2210972C1 (en) * | 2001-12-21 | 2003-08-27 | Закрытое акционерное общество "Научно-производственное предприятие Центр "Реабилитация" | Device for carrying out screening vision function diagnosis |
US20120212598A1 (en) * | 2011-02-17 | 2012-08-23 | Richard Allen Mowrey | Photorefraction ocular screening device and methods |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6072443A (en) * | 1996-03-29 | 2000-06-06 | Texas Instruments Incorporated | Adaptive ocular projection display |
RU2210972C1 (en) * | 2001-12-21 | 2003-08-27 | Закрытое акционерное общество "Научно-производственное предприятие Центр "Реабилитация" | Device for carrying out screening vision function diagnosis |
US20120212598A1 (en) * | 2011-02-17 | 2012-08-23 | Richard Allen Mowrey | Photorefraction ocular screening device and methods |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7166473B2 (en) | eye examination | |
JP7295938B2 (en) | Method and corresponding computing device for performing an astigmatic power test using a computing device having a screen displaying an image related to the astigmatic power test | |
Tousignant et al. | Comparing the Netra smartphone refractor to subjective refraction | |
EP3730038A1 (en) | A computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses | |
AU2025210828A1 (en) | Subjective refraction exam system | |
Weng et al. | Repeatability of the amplitude of accommodation measured by a new generation autorefractor | |
Ozgur et al. | Validity and acceptance of color vision testing on smartphones | |
US20250288199A1 (en) | System and method for determining prescription of corrective lenses using predictive calculations and corrected-eyesight simulation | |
Vera et al. | Validation of an objective method for the qualitative and quantitative assessment of binocular accommodative facility | |
KR20230038248A (en) | Method and Apparatus for Providing Automatic Prediction of Change in Fatigue State of a Subject Performing a Visual Task | |
Perches et al. | Retinal image simulation of subjective refraction techniques | |
Kobashi et al. | Comparison of subjective refraction under binocular and monocular conditions in myopic subjects | |
Garcia-Espinilla et al. | Comparison of physiognomy and frame angle parameters using different devices to prescribe progressive addition lenses | |
Fülep et al. | Simulation of visual acuity by personalizable neuro-physiological model of the human eye | |
Perches et al. | Repeatability and reproducibility of virtual subjective refraction | |
Kordek et al. | Comparison between optical and digital blur using near visual acuity | |
RU2846045C1 (en) | System for study of subjective refraction | |
Bell et al. | Utilising a visual image quality metric to optimise spectacle prescriptions for eyes with keratoconus | |
Gil et al. | Predicting subjective refraction with dynamic retinal image quality analysis | |
Selvin et al. | Comprehensive Eye Telehealth | |
Wilkinson | Sharpen your subjective refraction technique: minimize chair time, avoid frustration and help patients see better with this standardized protocol | |
EP4171350B1 (en) | Method and device for determining at least one astigmatic effect of at least one eye | |
Ozhan et al. | Dynamic accommodation measurement using Purkinje reflections and machine learning | |
US20250031958A1 (en) | Methods and Apparatus for Addressing Presbyopia | |
Ichhpujani et al. | Smart Resources in Ophthalmology |