Outside in: exile at home an algorithmic discrimination system

Outside in és una instal·lació que utilitza l’aprenentatge automàtic per reflexionar sobre la discriminació sistemàtica, ja que se centra en la detenció indiscriminada de mexicans amb herència japonesa concentrada a Morelos durant la Segona Guerra Mundial. Aquest sistema de discriminació algorítmica...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Artnodes 2020 (26)
1. Verfasser: Castro Meagher, Annabel
Format: Artikel
Sprache:eng
Schlagworte:
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue 26
container_start_page
container_title Artnodes
container_volume
creator Castro Meagher, Annabel
description Outside in és una instal·lació que utilitza l’aprenentatge automàtic per reflexionar sobre la discriminació sistemàtica, ja que se centra en la detenció indiscriminada de mexicans amb herència japonesa concentrada a Morelos durant la Segona Guerra Mundial. Aquest sistema de discriminació algorítmica «trosseja» contínuament quatre pel·lícules clàssiques de ficció en una sala de projecció. Els fragments es desplacen i classifiquen utilitzant algorismes d’aprenentatge automàtic. El sistema selecciona, separa i torna a muntar els fragments en un nou ordre. Vol reflectir la sensació de ser despullats del nostre dret a estar al lloc que ens pertany. Els ciutadans detinguts durant la Segona Guerra Mundial van ser trets de casa seva, les seves pertinences van ser confiscades i se’ls va recloure únicament per tenir ascendència japonesa. I ara, quasi de la mateixa manera, les empreses de recuperació de dades realitzen representacions en baixa resolució de nosaltres mateixos partint dels enderrocs digitals que se’ns arrabassa de la nostra vida quotidiana. Aquestes peces es reconfiguren en arquetips i se’ls assigna un significat per a la presa de decisions massives. No tenim el dret o els mitjans per saber com són aquestes representacions o quin significat s’ha assignat a aquestes formes. És un privilegi reservat als dissenyadors dels processos algorítmics: ells són amos d’aquest dret i nosaltres, els ciutadans, som amos de les conseqüències. Aquest article és un estudi de cas que presenta la creació d’Outside in: exile at home com una instal·lació que utilitza l’aprenentatge automàtic i reflexiona sobre aquest tipus de discriminació sistemàtica. Outside-in is an installation that utilises machine learning to reflect on systematic discrimination by focusing on the indefinite detention of Mexicans with Japanese heritage concentrated in Morelos during WWII. This algorithmic discrimination system tears apart four classic fiction films continuously within a projection room. The fragments are displaced and classified using machine learning algorithms. The system selects, separates and reassembles the fragments into new orders. It evokes the condition of being robbed of your right to be in the place to which you belong. The citizens detained during WWII were removed from their residence, their belongings were confiscated and they were placed in seclusion solely for having Japanese ancestry. Similarly, at present, data retrieving companies configure low resolution representa
format Article
fullrecord <record><control><sourceid>dialnet</sourceid><recordid>TN_cdi_dialnet_primary_oai_dialnet_unirioja_es_ART0001599247</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>oai_dialnet_unirioja_es_ART0001599247</sourcerecordid><originalsourceid>FETCH-dialnet_primary_oai_dialnet_unirioja_es_ART00015992473</originalsourceid><addsrcrecordid>eNqli0sKwjAUAIMoWD93yAUKqTaWiAgiijtBug-PNtpX8pEkBXt7u1Bw72qGgRmRJNsInnLBs_GPT8kshJYxnherPCH7axcD1oqi3VL1Qq0oRNo4M9BS0A_nMTYGK1pjqDwatBDRWRr6EJVZkMkddFDLD-dkdz6Vx0taI2ironwOC_heOkD5bZ1Fj64FqYI83ErGWMaFWOXF-s_9Da17TVI</addsrcrecordid><sourcetype>Open Website</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype></control><display><type>article</type><title>Outside in: exile at home an algorithmic discrimination system</title><source>Dialnet</source><source>Elektronische Zeitschriftenbibliothek - Frei zugängliche E-Journals</source><source>Revistes Catalanes amb Accés Obert (RACO)</source><creator>Castro Meagher, Annabel</creator><creatorcontrib>Castro Meagher, Annabel</creatorcontrib><description>Outside in és una instal·lació que utilitza l’aprenentatge automàtic per reflexionar sobre la discriminació sistemàtica, ja que se centra en la detenció indiscriminada de mexicans amb herència japonesa concentrada a Morelos durant la Segona Guerra Mundial. Aquest sistema de discriminació algorítmica «trosseja» contínuament quatre pel·lícules clàssiques de ficció en una sala de projecció. Els fragments es desplacen i classifiquen utilitzant algorismes d’aprenentatge automàtic. El sistema selecciona, separa i torna a muntar els fragments en un nou ordre. Vol reflectir la sensació de ser despullats del nostre dret a estar al lloc que ens pertany. Els ciutadans detinguts durant la Segona Guerra Mundial van ser trets de casa seva, les seves pertinences van ser confiscades i se’ls va recloure únicament per tenir ascendència japonesa. I ara, quasi de la mateixa manera, les empreses de recuperació de dades realitzen representacions en baixa resolució de nosaltres mateixos partint dels enderrocs digitals que se’ns arrabassa de la nostra vida quotidiana. Aquestes peces es reconfiguren en arquetips i se’ls assigna un significat per a la presa de decisions massives. No tenim el dret o els mitjans per saber com són aquestes representacions o quin significat s’ha assignat a aquestes formes. És un privilegi reservat als dissenyadors dels processos algorítmics: ells són amos d’aquest dret i nosaltres, els ciutadans, som amos de les conseqüències. Aquest article és un estudi de cas que presenta la creació d’Outside in: exile at home com una instal·lació que utilitza l’aprenentatge automàtic i reflexiona sobre aquest tipus de discriminació sistemàtica. Outside-in is an installation that utilises machine learning to reflect on systematic discrimination by focusing on the indefinite detention of Mexicans with Japanese heritage concentrated in Morelos during WWII. This algorithmic discrimination system tears apart four classic fiction films continuously within a projection room. The fragments are displaced and classified using machine learning algorithms. The system selects, separates and reassembles the fragments into new orders. It evokes the condition of being robbed of your right to be in the place to which you belong. The citizens detained during WWII were removed from their residence, their belongings were confiscated and they were placed in seclusion solely for having Japanese ancestry. Similarly, at present, data retrieving companies configure low resolution representations of ourselves from the snatched digital debris of our daily life. These pieces are reconfigured into archetypes and meaning is attached to them for massive decision making. We don’t have the right or means to know what these representations look like or what meaning has been attached to such shapes. It is a privilege reserved to the designers of algorithmic processes: they own this right and we the citizens own the consequences. The present article is a case study presenting the creation of Outside in: exile at home as an installation that utilises machine learning and reflects on this kind of systematic discrimination.    Outside in es una instalación que utiliza el aprendizaje automático para reflexionar sobre la discriminación sistemática al centrarse en la detención indiscriminada de mexicanos con herencia japonesa concentrada en Morelos durante la Segunda Guerra Mundial. Este sistema de discriminación algorítmica "despedaza" continuamente cuatro películas clásicas de ficción  en una sala de proyección. Los fragmentos se desplazan y clasifican utilizando algoritmos de aprendizaje automático. El sistema selecciona, separa y vuelve a montar los fragmentos en un nuevo orden. Quiere reflejar la sensación de ser despojados de nuestro derecho a estar en el lugar que nos pertenece. Los ciudadanos detenidos durante la Segunda Guerra Mundial fueron sacados de sus casas, sus pertenencias fueron confiscadas y se les recluyó únicamente por tener ascendencia japonesa. Y ahora, un poco de la misma manera, las empresas de recuperación de datos realizan representaciones en baja resolución de nosotros mismos partiendo de los escombros digitales que se nos arrebata de nuestra vida cotidiana. Estas piezas se reconfiguran en arquetipos y se les asigna un significado para la toma de decisiones masivas. No tenemos el derecho o los medios para saber cómo son estas representaciones o qué significado se ha asignado a tales formas. Es un privilegio reservado a los diseñadores de procesos algorítmicos: ellos son dueños de este derecho y nosotros, los ciudadanos, somos dueños de las consecuencias. El presente artículo es un estudio de caso que presenta la creación de Outside in: exile at home como una instalación que utiliza el aprendizaje automático y reflexiona sobre este tipo de discriminación sistemática.</description><identifier>ISSN: 1695-5951</identifier><identifier>EISSN: 1695-5951</identifier><language>eng</language><subject>algorithmic realtime video editing ; algorithmic video editing ; aprendizaje automático ; aprenentatge automàtic ; ciudadanía mexicana durante la Segunda Guerra Mundial ; ciutadania mexicana durant la Segona Guerra Mundial ; decision systems ; Digital Arts ; edició de vídeo algorítmica ; edición de video algorítmica ; identidad ; identitat ; identity ; machine learning ; Mexican citizenship during WWII ; sistemas de decisión ; sistemes de decisió ; territori ; territorio ; territory</subject><ispartof>Artnodes, 2020 (26)</ispartof><rights>LICENCIA DE USO: Los documentos a texto completo incluidos en Dialnet son de acceso libre y propiedad de sus autores y/o editores. Por tanto, cualquier acto de reproducción, distribución, comunicación pública y/o transformación total o parcial requiere el consentimiento expreso y escrito de aquéllos. Cualquier enlace al texto completo de estos documentos deberá hacerse a través de la URL oficial de éstos en Dialnet. Más información: https://dialnet.unirioja.es/info/derechosOAI | INTELLECTUAL PROPERTY RIGHTS STATEMENT: Full text documents hosted by Dialnet are protected by copyright and/or related rights. This digital object is accessible without charge, but its use is subject to the licensing conditions set by its authors or editors. Unless expressly stated otherwise in the licensing conditions, you are free to linking, browsing, printing and making a copy for your own personal purposes. All other acts of reproduction and communication to the public are subject to the licensing conditions expressed by editors and authors and require consent from them. Any link to this document should be made using its official URL in Dialnet. More info: https://dialnet.unirioja.es/info/derechosOAI</rights><lds50>peer_reviewed</lds50><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><link.rule.ids>314,776,780,870,4010</link.rule.ids></links><search><creatorcontrib>Castro Meagher, Annabel</creatorcontrib><title>Outside in: exile at home an algorithmic discrimination system</title><title>Artnodes</title><description>Outside in és una instal·lació que utilitza l’aprenentatge automàtic per reflexionar sobre la discriminació sistemàtica, ja que se centra en la detenció indiscriminada de mexicans amb herència japonesa concentrada a Morelos durant la Segona Guerra Mundial. Aquest sistema de discriminació algorítmica «trosseja» contínuament quatre pel·lícules clàssiques de ficció en una sala de projecció. Els fragments es desplacen i classifiquen utilitzant algorismes d’aprenentatge automàtic. El sistema selecciona, separa i torna a muntar els fragments en un nou ordre. Vol reflectir la sensació de ser despullats del nostre dret a estar al lloc que ens pertany. Els ciutadans detinguts durant la Segona Guerra Mundial van ser trets de casa seva, les seves pertinences van ser confiscades i se’ls va recloure únicament per tenir ascendència japonesa. I ara, quasi de la mateixa manera, les empreses de recuperació de dades realitzen representacions en baixa resolució de nosaltres mateixos partint dels enderrocs digitals que se’ns arrabassa de la nostra vida quotidiana. Aquestes peces es reconfiguren en arquetips i se’ls assigna un significat per a la presa de decisions massives. No tenim el dret o els mitjans per saber com són aquestes representacions o quin significat s’ha assignat a aquestes formes. És un privilegi reservat als dissenyadors dels processos algorítmics: ells són amos d’aquest dret i nosaltres, els ciutadans, som amos de les conseqüències. Aquest article és un estudi de cas que presenta la creació d’Outside in: exile at home com una instal·lació que utilitza l’aprenentatge automàtic i reflexiona sobre aquest tipus de discriminació sistemàtica. Outside-in is an installation that utilises machine learning to reflect on systematic discrimination by focusing on the indefinite detention of Mexicans with Japanese heritage concentrated in Morelos during WWII. This algorithmic discrimination system tears apart four classic fiction films continuously within a projection room. The fragments are displaced and classified using machine learning algorithms. The system selects, separates and reassembles the fragments into new orders. It evokes the condition of being robbed of your right to be in the place to which you belong. The citizens detained during WWII were removed from their residence, their belongings were confiscated and they were placed in seclusion solely for having Japanese ancestry. Similarly, at present, data retrieving companies configure low resolution representations of ourselves from the snatched digital debris of our daily life. These pieces are reconfigured into archetypes and meaning is attached to them for massive decision making. We don’t have the right or means to know what these representations look like or what meaning has been attached to such shapes. It is a privilege reserved to the designers of algorithmic processes: they own this right and we the citizens own the consequences. The present article is a case study presenting the creation of Outside in: exile at home as an installation that utilises machine learning and reflects on this kind of systematic discrimination.    Outside in es una instalación que utiliza el aprendizaje automático para reflexionar sobre la discriminación sistemática al centrarse en la detención indiscriminada de mexicanos con herencia japonesa concentrada en Morelos durante la Segunda Guerra Mundial. Este sistema de discriminación algorítmica "despedaza" continuamente cuatro películas clásicas de ficción  en una sala de proyección. Los fragmentos se desplazan y clasifican utilizando algoritmos de aprendizaje automático. El sistema selecciona, separa y vuelve a montar los fragmentos en un nuevo orden. Quiere reflejar la sensación de ser despojados de nuestro derecho a estar en el lugar que nos pertenece. Los ciudadanos detenidos durante la Segunda Guerra Mundial fueron sacados de sus casas, sus pertenencias fueron confiscadas y se les recluyó únicamente por tener ascendencia japonesa. Y ahora, un poco de la misma manera, las empresas de recuperación de datos realizan representaciones en baja resolución de nosotros mismos partiendo de los escombros digitales que se nos arrebata de nuestra vida cotidiana. Estas piezas se reconfiguran en arquetipos y se les asigna un significado para la toma de decisiones masivas. No tenemos el derecho o los medios para saber cómo son estas representaciones o qué significado se ha asignado a tales formas. Es un privilegio reservado a los diseñadores de procesos algorítmicos: ellos son dueños de este derecho y nosotros, los ciudadanos, somos dueños de las consecuencias. El presente artículo es un estudio de caso que presenta la creación de Outside in: exile at home como una instalación que utiliza el aprendizaje automático y reflexiona sobre este tipo de discriminación sistemática.</description><subject>algorithmic realtime video editing</subject><subject>algorithmic video editing</subject><subject>aprendizaje automático</subject><subject>aprenentatge automàtic</subject><subject>ciudadanía mexicana durante la Segunda Guerra Mundial</subject><subject>ciutadania mexicana durant la Segona Guerra Mundial</subject><subject>decision systems</subject><subject>Digital Arts</subject><subject>edició de vídeo algorítmica</subject><subject>edición de video algorítmica</subject><subject>identidad</subject><subject>identitat</subject><subject>identity</subject><subject>machine learning</subject><subject>Mexican citizenship during WWII</subject><subject>sistemas de decisión</subject><subject>sistemes de decisió</subject><subject>territori</subject><subject>territorio</subject><subject>territory</subject><issn>1695-5951</issn><issn>1695-5951</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2020</creationdate><recordtype>article</recordtype><sourceid>FKZ</sourceid><recordid>eNqli0sKwjAUAIMoWD93yAUKqTaWiAgiijtBug-PNtpX8pEkBXt7u1Bw72qGgRmRJNsInnLBs_GPT8kshJYxnherPCH7axcD1oqi3VL1Qq0oRNo4M9BS0A_nMTYGK1pjqDwatBDRWRr6EJVZkMkddFDLD-dkdz6Vx0taI2ironwOC_heOkD5bZ1Fj64FqYI83ErGWMaFWOXF-s_9Da17TVI</recordid><startdate>2020</startdate><enddate>2020</enddate><creator>Castro Meagher, Annabel</creator><scope>AGMXS</scope><scope>FKZ</scope></search><sort><creationdate>2020</creationdate><title>Outside in: exile at home an algorithmic discrimination system</title><author>Castro Meagher, Annabel</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-dialnet_primary_oai_dialnet_unirioja_es_ART00015992473</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>eng</language><creationdate>2020</creationdate><topic>algorithmic realtime video editing</topic><topic>algorithmic video editing</topic><topic>aprendizaje automático</topic><topic>aprenentatge automàtic</topic><topic>ciudadanía mexicana durante la Segunda Guerra Mundial</topic><topic>ciutadania mexicana durant la Segona Guerra Mundial</topic><topic>decision systems</topic><topic>Digital Arts</topic><topic>edició de vídeo algorítmica</topic><topic>edición de video algorítmica</topic><topic>identidad</topic><topic>identitat</topic><topic>identity</topic><topic>machine learning</topic><topic>Mexican citizenship during WWII</topic><topic>sistemas de decisión</topic><topic>sistemes de decisió</topic><topic>territori</topic><topic>territorio</topic><topic>territory</topic><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>Castro Meagher, Annabel</creatorcontrib><collection>Dialnet (Open Access Full Text)</collection><collection>Dialnet</collection><jtitle>Artnodes</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>Castro Meagher, Annabel</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>Outside in: exile at home an algorithmic discrimination system</atitle><jtitle>Artnodes</jtitle><date>2020</date><risdate>2020</risdate><issue>26</issue><issn>1695-5951</issn><eissn>1695-5951</eissn><abstract>Outside in és una instal·lació que utilitza l’aprenentatge automàtic per reflexionar sobre la discriminació sistemàtica, ja que se centra en la detenció indiscriminada de mexicans amb herència japonesa concentrada a Morelos durant la Segona Guerra Mundial. Aquest sistema de discriminació algorítmica «trosseja» contínuament quatre pel·lícules clàssiques de ficció en una sala de projecció. Els fragments es desplacen i classifiquen utilitzant algorismes d’aprenentatge automàtic. El sistema selecciona, separa i torna a muntar els fragments en un nou ordre. Vol reflectir la sensació de ser despullats del nostre dret a estar al lloc que ens pertany. Els ciutadans detinguts durant la Segona Guerra Mundial van ser trets de casa seva, les seves pertinences van ser confiscades i se’ls va recloure únicament per tenir ascendència japonesa. I ara, quasi de la mateixa manera, les empreses de recuperació de dades realitzen representacions en baixa resolució de nosaltres mateixos partint dels enderrocs digitals que se’ns arrabassa de la nostra vida quotidiana. Aquestes peces es reconfiguren en arquetips i se’ls assigna un significat per a la presa de decisions massives. No tenim el dret o els mitjans per saber com són aquestes representacions o quin significat s’ha assignat a aquestes formes. És un privilegi reservat als dissenyadors dels processos algorítmics: ells són amos d’aquest dret i nosaltres, els ciutadans, som amos de les conseqüències. Aquest article és un estudi de cas que presenta la creació d’Outside in: exile at home com una instal·lació que utilitza l’aprenentatge automàtic i reflexiona sobre aquest tipus de discriminació sistemàtica. Outside-in is an installation that utilises machine learning to reflect on systematic discrimination by focusing on the indefinite detention of Mexicans with Japanese heritage concentrated in Morelos during WWII. This algorithmic discrimination system tears apart four classic fiction films continuously within a projection room. The fragments are displaced and classified using machine learning algorithms. The system selects, separates and reassembles the fragments into new orders. It evokes the condition of being robbed of your right to be in the place to which you belong. The citizens detained during WWII were removed from their residence, their belongings were confiscated and they were placed in seclusion solely for having Japanese ancestry. Similarly, at present, data retrieving companies configure low resolution representations of ourselves from the snatched digital debris of our daily life. These pieces are reconfigured into archetypes and meaning is attached to them for massive decision making. We don’t have the right or means to know what these representations look like or what meaning has been attached to such shapes. It is a privilege reserved to the designers of algorithmic processes: they own this right and we the citizens own the consequences. The present article is a case study presenting the creation of Outside in: exile at home as an installation that utilises machine learning and reflects on this kind of systematic discrimination.    Outside in es una instalación que utiliza el aprendizaje automático para reflexionar sobre la discriminación sistemática al centrarse en la detención indiscriminada de mexicanos con herencia japonesa concentrada en Morelos durante la Segunda Guerra Mundial. Este sistema de discriminación algorítmica "despedaza" continuamente cuatro películas clásicas de ficción  en una sala de proyección. Los fragmentos se desplazan y clasifican utilizando algoritmos de aprendizaje automático. El sistema selecciona, separa y vuelve a montar los fragmentos en un nuevo orden. Quiere reflejar la sensación de ser despojados de nuestro derecho a estar en el lugar que nos pertenece. Los ciudadanos detenidos durante la Segunda Guerra Mundial fueron sacados de sus casas, sus pertenencias fueron confiscadas y se les recluyó únicamente por tener ascendencia japonesa. Y ahora, un poco de la misma manera, las empresas de recuperación de datos realizan representaciones en baja resolución de nosotros mismos partiendo de los escombros digitales que se nos arrebata de nuestra vida cotidiana. Estas piezas se reconfiguran en arquetipos y se les asigna un significado para la toma de decisiones masivas. No tenemos el derecho o los medios para saber cómo son estas representaciones o qué significado se ha asignado a tales formas. Es un privilegio reservado a los diseñadores de procesos algorítmicos: ellos son dueños de este derecho y nosotros, los ciudadanos, somos dueños de las consecuencias. El presente artículo es un estudio de caso que presenta la creación de Outside in: exile at home como una instalación que utiliza el aprendizaje automático y reflexiona sobre este tipo de discriminación sistemática.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext
identifier ISSN: 1695-5951
ispartof Artnodes, 2020 (26)
issn 1695-5951
1695-5951
language eng
recordid cdi_dialnet_primary_oai_dialnet_unirioja_es_ART0001599247
source Dialnet; Elektronische Zeitschriftenbibliothek - Frei zugängliche E-Journals; Revistes Catalanes amb Accés Obert (RACO)
subjects algorithmic realtime video editing
algorithmic video editing
aprendizaje automático
aprenentatge automàtic
ciudadanía mexicana durante la Segunda Guerra Mundial
ciutadania mexicana durant la Segona Guerra Mundial
decision systems
Digital Arts
edició de vídeo algorítmica
edición de video algorítmica
identidad
identitat
identity
machine learning
Mexican citizenship during WWII
sistemas de decisión
sistemes de decisió
territori
territorio
territory
title Outside in: exile at home an algorithmic discrimination system
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-02-14T23%3A01%3A29IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-dialnet&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=Outside%20in:%20exile%20at%20home%20an%20algorithmic%20discrimination%20system&rft.jtitle=Artnodes&rft.au=Castro%20Meagher,%20Annabel&rft.date=2020&rft.issue=26&rft.issn=1695-5951&rft.eissn=1695-5951&rft_id=info:doi/&rft_dat=%3Cdialnet%3Eoai_dialnet_unirioja_es_ART0001599247%3C/dialnet%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true