MULTI-DEPTH DEBLUR

A method includes receiving, from a sensor, an image. The method also includes determining, based on the image, at least one pixel area identified to contain a region of interest within the image. The method additionally includes determining depth information for the at least one pixel area. The met...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: LOU, Ying Chen, WEI, Li, LAI, Wei-Sheng, CHAN, Leung Chun, LIU, Tongyang, HONG, Wei, SHIH, Yichang
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator LOU, Ying Chen
WEI, Li
LAI, Wei-Sheng
CHAN, Leung Chun
LIU, Tongyang
HONG, Wei
SHIH, Yichang
description A method includes receiving, from a sensor, an image. The method also includes determining, based on the image, at least one pixel area identified to contain a region of interest within the image. The method additionally includes determining depth information for the at least one pixel area. The method further includes based on the depth information for the at least one pixel area, selecting at least one deblur model from a plurality of deblur models to apply to the at least one pixel area. The method also includes applying the selected at least one deblur model to determine a deblurred image comprising the at least one pixel area, where the at least one pixel area is deblurred based on the depth information. Selon l'invention, un procédé consiste à recevoir une image en provenance d'un capteur. Le procédé consiste également à déterminer, sur la base de l'image, au moins une zone de pixels identifiée comme contenant une région d'intérêt dans l'image. Le procédé consiste de plus à déterminer des informations de profondeur de la ou des zones de pixels. Le procédé consiste en outre, sur la base des informations de profondeur de la ou des zones de pixels, à sélectionner au moins un modèle de défloutage parmi une pluralité de modèles de défloutage à appliquer à la ou aux zones de pixels. Le procédé consiste également à appliquer le ou les modèles de défloutage sélectionnés pour déterminer une image défloutée comprenant la ou les zones de pixels, la ou les zones de pixels étant défloutées sur la base des informations de profondeur.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2024210900A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2024210900A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2024210900A13</originalsourceid><addsrcrecordid>eNrjZBDyDfUJ8dR1cQ0I8VBwcXXyCQ3iYWBNS8wpTuWF0twMym6uIc4euqkF-fGpxQWJyal5qSXx4f5GBkYmRoYGlgYGjobGxKkCALGUHtw</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>MULTI-DEPTH DEBLUR</title><source>esp@cenet</source><creator>LOU, Ying Chen ; WEI, Li ; LAI, Wei-Sheng ; CHAN, Leung Chun ; LIU, Tongyang ; HONG, Wei ; SHIH, Yichang</creator><creatorcontrib>LOU, Ying Chen ; WEI, Li ; LAI, Wei-Sheng ; CHAN, Leung Chun ; LIU, Tongyang ; HONG, Wei ; SHIH, Yichang</creatorcontrib><description>A method includes receiving, from a sensor, an image. The method also includes determining, based on the image, at least one pixel area identified to contain a region of interest within the image. The method additionally includes determining depth information for the at least one pixel area. The method further includes based on the depth information for the at least one pixel area, selecting at least one deblur model from a plurality of deblur models to apply to the at least one pixel area. The method also includes applying the selected at least one deblur model to determine a deblurred image comprising the at least one pixel area, where the at least one pixel area is deblurred based on the depth information. Selon l'invention, un procédé consiste à recevoir une image en provenance d'un capteur. Le procédé consiste également à déterminer, sur la base de l'image, au moins une zone de pixels identifiée comme contenant une région d'intérêt dans l'image. Le procédé consiste de plus à déterminer des informations de profondeur de la ou des zones de pixels. Le procédé consiste en outre, sur la base des informations de profondeur de la ou des zones de pixels, à sélectionner au moins un modèle de défloutage parmi une pluralité de modèles de défloutage à appliquer à la ou aux zones de pixels. Le procédé consiste également à appliquer le ou les modèles de défloutage sélectionnés pour déterminer une image défloutée comprenant la ou les zones de pixels, la ou les zones de pixels étant défloutées sur la base des informations de profondeur.</description><language>eng ; fre</language><subject>CALCULATING ; COMPUTING ; COUNTING ; ELECTRIC COMMUNICATION TECHNIQUE ; ELECTRICITY ; IMAGE DATA PROCESSING OR GENERATION, IN GENERAL ; PHYSICS ; PICTORIAL COMMUNICATION, e.g. TELEVISION</subject><creationdate>2024</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20241010&amp;DB=EPODOC&amp;CC=WO&amp;NR=2024210900A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,780,885,25563,76318</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20241010&amp;DB=EPODOC&amp;CC=WO&amp;NR=2024210900A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>LOU, Ying Chen</creatorcontrib><creatorcontrib>WEI, Li</creatorcontrib><creatorcontrib>LAI, Wei-Sheng</creatorcontrib><creatorcontrib>CHAN, Leung Chun</creatorcontrib><creatorcontrib>LIU, Tongyang</creatorcontrib><creatorcontrib>HONG, Wei</creatorcontrib><creatorcontrib>SHIH, Yichang</creatorcontrib><title>MULTI-DEPTH DEBLUR</title><description>A method includes receiving, from a sensor, an image. The method also includes determining, based on the image, at least one pixel area identified to contain a region of interest within the image. The method additionally includes determining depth information for the at least one pixel area. The method further includes based on the depth information for the at least one pixel area, selecting at least one deblur model from a plurality of deblur models to apply to the at least one pixel area. The method also includes applying the selected at least one deblur model to determine a deblurred image comprising the at least one pixel area, where the at least one pixel area is deblurred based on the depth information. Selon l'invention, un procédé consiste à recevoir une image en provenance d'un capteur. Le procédé consiste également à déterminer, sur la base de l'image, au moins une zone de pixels identifiée comme contenant une région d'intérêt dans l'image. Le procédé consiste de plus à déterminer des informations de profondeur de la ou des zones de pixels. Le procédé consiste en outre, sur la base des informations de profondeur de la ou des zones de pixels, à sélectionner au moins un modèle de défloutage parmi une pluralité de modèles de défloutage à appliquer à la ou aux zones de pixels. Le procédé consiste également à appliquer le ou les modèles de défloutage sélectionnés pour déterminer une image défloutée comprenant la ou les zones de pixels, la ou les zones de pixels étant défloutées sur la base des informations de profondeur.</description><subject>CALCULATING</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>ELECTRIC COMMUNICATION TECHNIQUE</subject><subject>ELECTRICITY</subject><subject>IMAGE DATA PROCESSING OR GENERATION, IN GENERAL</subject><subject>PHYSICS</subject><subject>PICTORIAL COMMUNICATION, e.g. TELEVISION</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2024</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZBDyDfUJ8dR1cQ0I8VBwcXXyCQ3iYWBNS8wpTuWF0twMym6uIc4euqkF-fGpxQWJyal5qSXx4f5GBkYmRoYGlgYGjobGxKkCALGUHtw</recordid><startdate>20241010</startdate><enddate>20241010</enddate><creator>LOU, Ying Chen</creator><creator>WEI, Li</creator><creator>LAI, Wei-Sheng</creator><creator>CHAN, Leung Chun</creator><creator>LIU, Tongyang</creator><creator>HONG, Wei</creator><creator>SHIH, Yichang</creator><scope>EVB</scope></search><sort><creationdate>20241010</creationdate><title>MULTI-DEPTH DEBLUR</title><author>LOU, Ying Chen ; WEI, Li ; LAI, Wei-Sheng ; CHAN, Leung Chun ; LIU, Tongyang ; HONG, Wei ; SHIH, Yichang</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2024210900A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2024</creationdate><topic>CALCULATING</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>ELECTRIC COMMUNICATION TECHNIQUE</topic><topic>ELECTRICITY</topic><topic>IMAGE DATA PROCESSING OR GENERATION, IN GENERAL</topic><topic>PHYSICS</topic><topic>PICTORIAL COMMUNICATION, e.g. TELEVISION</topic><toplevel>online_resources</toplevel><creatorcontrib>LOU, Ying Chen</creatorcontrib><creatorcontrib>WEI, Li</creatorcontrib><creatorcontrib>LAI, Wei-Sheng</creatorcontrib><creatorcontrib>CHAN, Leung Chun</creatorcontrib><creatorcontrib>LIU, Tongyang</creatorcontrib><creatorcontrib>HONG, Wei</creatorcontrib><creatorcontrib>SHIH, Yichang</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>LOU, Ying Chen</au><au>WEI, Li</au><au>LAI, Wei-Sheng</au><au>CHAN, Leung Chun</au><au>LIU, Tongyang</au><au>HONG, Wei</au><au>SHIH, Yichang</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>MULTI-DEPTH DEBLUR</title><date>2024-10-10</date><risdate>2024</risdate><abstract>A method includes receiving, from a sensor, an image. The method also includes determining, based on the image, at least one pixel area identified to contain a region of interest within the image. The method additionally includes determining depth information for the at least one pixel area. The method further includes based on the depth information for the at least one pixel area, selecting at least one deblur model from a plurality of deblur models to apply to the at least one pixel area. The method also includes applying the selected at least one deblur model to determine a deblurred image comprising the at least one pixel area, where the at least one pixel area is deblurred based on the depth information. Selon l'invention, un procédé consiste à recevoir une image en provenance d'un capteur. Le procédé consiste également à déterminer, sur la base de l'image, au moins une zone de pixels identifiée comme contenant une région d'intérêt dans l'image. Le procédé consiste de plus à déterminer des informations de profondeur de la ou des zones de pixels. Le procédé consiste en outre, sur la base des informations de profondeur de la ou des zones de pixels, à sélectionner au moins un modèle de défloutage parmi une pluralité de modèles de défloutage à appliquer à la ou aux zones de pixels. Le procédé consiste également à appliquer le ou les modèles de défloutage sélectionnés pour déterminer une image défloutée comprenant la ou les zones de pixels, la ou les zones de pixels étant défloutées sur la base des informations de profondeur.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2024210900A1
source esp@cenet
subjects CALCULATING
COMPUTING
COUNTING
ELECTRIC COMMUNICATION TECHNIQUE
ELECTRICITY
IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
PHYSICS
PICTORIAL COMMUNICATION, e.g. TELEVISION
title MULTI-DEPTH DEBLUR
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-10T10%3A00%3A46IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=LOU,%20Ying%20Chen&rft.date=2024-10-10&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2024210900A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true