DigLitWeb: Digital Literature Web

E-C


Uma leitura de 'Visible and Invisible Books in N-Dimensional Space', de Jerome McGann

Tiago Jerónimo


 

índice | contents

1. À guisa de introdução

2. Limites, questões e soluções

 


1. À guisa de introdução

 

Embora o facto passe despercebido à generalidade das pessoas e mesmo a grande parte da comunidade científica e literária, encontramo-nos, actualmente, numa situação idêntica à que ocorreu no século XV, quando o texto impresso suplantou o manuscrito. O impacto que o computador e o hipertexto têm no domínio dos estudos literários é inegável. Não só o nosso arquivo cultural está a ser inteiramente reconcebido como surge uma nova abordagem textual.

Creio que não existe qualquer ameaça à existência do livro e acredito, como outros, que o livro coexistirá sempre com o hipertexto. Devemos sim procurar responder a questões muito mais prementes. O computador e as ferramentas digitais de que dispomos conseguem realizar quase todas as tarefas de edição muito melhor que o livro. Arquivos digitais como o The Rossetti Archive ou The Blake Archive não seriam possíveis no formato de livro impresso, da mesma forma seria impossível realizar muitas das tarefas de análise e estudo que são oferecidas pelos arquivos digitais. Contudo, existem ainda algumas limitações. Partindo do texto de Jerome McGann “Visible and Invisible Books in N-Dimensional Space” procuro expor as questões mais importantes no que diz respeito à relação entre codificação e texto.

O trabalho deste autor com o The Rossetti Archive permitiu elucidar muitas questões, não só sobre as ferramentas digitais disponíveis mas também sobre os materiais originais que se procuram representar e analisar. A teoria da codificação preocupa-se actualmente com dois tipos de materiais: a poesia, por não se tratar de um texto de carácter informativo e expositivo, e o manuscrito, pelas suas características especificas; razão pela qual neste trabalho se dará particular ênfase ao modo como este tipo de materiais é abordado pelas teorias do texto e codificação.

 

índice | contents


2. Limites, questões e soluções

 

A codificação de textos não é uma problemática de somenos importância. A transferência ou troca de textos na Internet, assim como entre computadores mediante a partilha de suportes de informação, é uma realidade do nosso tempo. Contudo, a formatação, tal como outros aspectos inerentes ao texto, são alterados ou irremediavelmente eliminados durante as transferências. Isto não se deve apenas às diferenças entre sistemas operativos. Mesmo aquando da utilização do mesmo sistema, diferenças de software implicam uma codificação de ficheiros diversa. A única solução parece ser a conversão.

Alguns programas permitem a conversão de ficheiros fornecendo aos utilizadores uma versão final minimamente aceitável. Estas limitações, no que diz respeito à troca de ficheiros, colocam-nos perante um impasse – ou dispensamos a formatação ou limitamo-nos a transferências entre programas específicos para os quais foram concebidos programas de conversão. Uma hipótese muito mais viável encontra-se na utilização de um sistema que universalize a formatação, assim como outros aspectos que lhe são inerentes.

Uma demonstração clara da importância de um sistema de codificação universal é o facto de qualquer edição realizada num sistema específico limitar a sua utilização a um grupo restrito – os detentores desse tipo de sistema – até que o mesmo se torne obsoleto. Por outro lado, qualquer edição que recorra a um sistema universal cria uma obra disponível a qualquer um que tenha um computador, assegurando também a continuidade da edição depois do surgimento de novo software.

Uma possibilidade desenvolvida, tendo em vista um vasto acesso electrónico, é o HTML, um sistema de codificação altamente flexível que possui actualmente a vantagem de ser universalmente acessível na Internet para utilização hipertextual. Possui, contudo, algumas limitações na medida em que não permite a especificação de todos os detalhes que os editores consideram dotados de importância significativa para serem codificados. Por outro lado, a sua flexibilidade permite demasiada variação interna na forma como representa os elementos que codifica. Em virtude deste último problema, diferentes utilizadores acedendo ao mesmo arquivo podem obter diferentes representações do mesmo texto – a formatação é demasiado flexível.

A melhor solução parece ser o S.G.M.L. (Standard General Markup Language) concebido para fornecer um sistema de codificação para a troca de textos electrónicos que mantêm as características estruturais do texto ainda que sejam utilizados diferentes sistemas operativos. A maior parte dos arquivos electrónicos utiliza este sistema, que deve o seu sucesso às possibilidades que oferece. Para determinados elementos específicos, o sistema consegue oferecer mais de uma forma de codificar o texto. Contudo, o sistema apresenta limitações uma vez que determinada áreas não foram alvo de atenção por parte daqueles que o conceberam, em particular o aspecto físico de materiais manuscritos e do livro impresso.

O S.G.M.L é uma ferramenta excelente para trabalhar textos encarados como unidades estruturadas logicamente, no entanto está severamente limitado no que diz respeito ao texto enquanto fenómeno físico/material, constituído por páginas e marcas espalhadas pela folha[1]. Na sua ambiciosa concepção de que tudo e qualquer coisa dotada de interesse e sentido pode ser codificada, os autores do S.G.M.L consideraram que tudo pode ser interpretado: a codificação pode abranger todos os sentidos.

As limitações actuais deste sistema, assim como de outros que se desenvolveram na sua esteira, são, por um lado, resultado de uma concepção profundamente errada do que é o texto e por outro, fruto da própria história do desenvolvimento computacional direccionado para as humanidades. A aplicação da computação na área das humanidades desenvolveu-se no âmbito da linguística. Considerou-se que os computadores seriam de extrema utilidade na pesquisa automática de padrões em vastos corpus de informação linguística. Em virtude disto, os corpora textuais, mesmo tratando-se de textos poéticos, eram estruturados para uso computacional como se fossem de carácter informativo ou expositivo. Assim, programas e sistemas que se desenvolveram para trabalhar textos ao nível da procura e análise assumiam que o seu objectivo seria a exposição de conteúdo informativo e estruturas expositivas do texto.

Acresce a isto o facto de muitos daqueles envolvidos no desenvolvimento de sistemas de codificação encararem as obras literárias partindo de uma concepção simplista no que diz respeito à distinção forma e conteúdo. Isto indica claramente que existe uma forma errada de encarar os materiais originais. Assim se explica que Stephen DeRose considere que “A book is the same if reprinted from quarto to octavo and from Garamond 24 to Times 12 in all but a few sentences”[2]. Esta ideia, baseada em fundamentos errados acerca das obras literárias, conduziu à utilização de programas criados segundo esses fundamentos. Assim, as estruturas computacionais elaboradas para estudar e analisar as formas complexas que constituem a obra literária abordam o texto como se fosse de carácter expositivo, como se as obras não fossem feitas de metáforas, intertextualidade e padrões gráficos e sonoros.

O trabalho que desenvolveu com o The Rossetti Archive permitiu a McGann comprovar que surgem bastantes problemas quando se tenta utilizar formas básicas de codificação para elucidar as estruturas funcionais de obras literárias. Os padrões repetitivos que constituem uma característica essencial da poesia e de todas as obras literárias não podem ser codificadas, muito menos capturadas pelo S.G.M.L. ou outros sistemas idênticos[3].

Esta incapacidade de conjugar perfeitamente as ferramentas digitais de que dispunha e a informação textual que procurava trabalhar, levou-o a pensar rigorosamente sobre algumas questões que havia considerado, à partida, básicas. A impossibilidade de traduzir os materiais bibliográficos para instruções codificadas mostrou-lhe que afinal não sabia muito bem o que era um texto. A teoria do texto dominante entre aqueles que se debruçavam sobre a problemática da codificação, encarava o texto como veículo para a transmissão de informação e conceitos – o texto seria hierárquico, linguístico e produto da intenção humana.

Contudo, ao contrário dos textos informativos e expositivos, as obras literárias, em particular a poesia, não se encontram organizados de acordo com uma determinada hierarquia. O texto poético é uma estrutura recursiva construída com complexas redes de repetição e variação. Nenhum poema pode existir sem um qualquer sistema de estrutura encadeada e quanto mais elaborado é o texto poético mais complexos são tais sistemas repetição. Deste modo, considera McGann, no âmbito da poesia nenhuma unidade é igual a si própria pelo que a lógica do poema só pode ser estruturada numa espécie de articulação paradoxal: “A equals A if and only if A does not equal A”.

Como McGann ilustra com um poema de Gerard Manley Hopkins, as obras literárias funcionam através de transformações e repetições complexas. Por outro lado, o texto poético é simultaneamente um acontecimento perceptual e conceptual. Os textos informativos procuram minimizar as características perceptuais, acreditando que os textos que chamam a atenção para a forma interferem com a transmissão de ideias. Contudo, a textualidade da poesia mostra-nos que a fonética desempenha uma função importante nas operações linguísticas providas de significado. Também nos lembra de uma segunda importante característica do texto – ainda que estabeleça estruturas hierárquicas de ideias, a poesia envolve jogo com as palavras e com o que é apresentado.

O poema “To The Post Boy”, apresentado por McGann, ilustra outro tipo de instabilidade textual, operando a um nível translinguístico. O problema centra-se na atribuição: não sabemos ao certo quem é o autor da obra e esta incerteza afecta todos os aspectos da textualidade do poema. A obra em questão pode ser encarada de três formas. Obra de Rochester, obra de alguém satirizando Rochester ou algo aberto a uma ou ambas leituras simultaneamente. Estas possibilidades de enquadramento são parte da textualidade da obra e são parte intrínseca da mesma.

A crítica tradicional considera isto um problema de contexto mas o contexto é cognato do texto. McGann coloca ênfase na história de recepção e transmissão da obra. Procuramos sempre sentidos nas testemunhas que trouxeram o poema até nós, lemos as interpretações dessas testemunhas e construímos a nossa visão do texto transformando-o. A transformação ocorre porque o texto é sempre negociado e em parte criado por aqueles que entram em contacto com ele.

O poema “Ode on a Grecian Urn” de Keats, permite a McGann mostrar outra característica específica do texto poético. As características elementares do texto, o conjunto de convenções existentes para codificar os versos no espaço oferecem grandes recursos à imaginação do artista. Assim, no poema de Keats não ouvimos as melodias de que fala mas vemo-las. O efeito resulta da forma da estrofe, que pode realizar outras funções, a título de exemplo, a estrofe é em si mesma, independentemente das palavras que a compõem, uma unidade narrativa. Compreendemos com este poema que a construção fonética do texto e o desenvolvimento do tema podem funcionar independentemente ou simultaneamente. As características perceptuais do texto possuem a mesma capacidade de expressar sentido que as características semânticas, sintácticas ou retóricas. 

Isto leva McGann à sua concepção de “Quantum Poetics” assente na instabilidade apresentada pelos objectos de estudo. O espaço estético encontra-se organizado como o espaço quântico, onde a identidade dos elementos que constituem o espaço parece mover-se e inverter-se. Distinguimos uma estrutura de segmentação relacional em qualquer texto, mas em obras poéticas observamos também que os segmentos e as suas relações mutam e desenvolvem simetrias e assimetrias.

Claramente afastado do texto de carácter expositivo e demonstrando que a obra literária não é um fenómeno unitário organizado em estruturas determinadas, a poesia mostra que o S.G.M.L., ainda que adequado para textos informativos, encontra-se muito longe de conseguir traduzir as características do texto poético que são de grande interesse para aqueles que o lêem e que com ele trabalham. Uma outra questão parece ter escapado às considerações daqueles que elaboram os sistemas de codificação – trata-se de um facto elementar nos textos impressos e manuscritos. Estes materiais são constituídos por uma série de espaços marcados e não marcados. O mais óbvio são as unidades maiores dotadas de regularidade – as linhas, os parágrafos; no caso da poesia, as estrofes assim como o espaço entre elas. Cada uma destas unidades espaciais assim como todas as outras numa página ou num livro, oferecem possibilidades para expressão não lexical[4]. Os textos não são simplesmente largados em páginas em branco e, se tivermos em conta os tipos de letra, a tinta e o papel compreendemos que a multiplicidade do livro não é convenientemente tratada pelos sistemas de codificação. Este aspecto reveste-se de particular importância no caso dos manuscritos, estes constituem um caso à parte devido à especificidade das suas características.

As descrições de manuscritos podem beneficiar imenso com a edição electrónica. Existem em grande número, possuem informação de grande interesse, encontram-se frequentemente estruturados formalmente pelo que, aparentemente, são passíveis de ser submetidos a programas de exposição de estruturas e informação. Contudo, a sua representação envolve algumas dificuldades. As hierarquias em cada manuscrito, assim como o estilo e a ornamentação são determinadas pelos copistas que realizaram cada manuscrito, pelo que existe, de cópia para cópia, uma grande instabilidade. Se por um lado se considera que a finalidade das transcrições consiste na fixação de texto mediante a comparação de formas em diversos manuscritos, por outro lado, parece ser bastante claro que o aspecto físico do manuscrito era de grande importância para o copista. Se assim não fosse seria impossível explicar porque se gastava tanto tempo com a produção de gravuras e padrões. É precisamente isto que coloca problemas a editores e programas de codificação. Uma vez que a aparência é não textual, a sua codificação numa transcrição mediante a utilização de caracteres apresenta grandes dificuldades. Contudo, a aparência dos manuscritos faz parte da mensagem que procuravam transmitir (os elementos decorativos como letras maiúsculas ornamentadas, marcas de parágrafo e gravuras parecem ter uma finalidade paratextual) pelo que a sua representação é necessária.

A descrição de manuscritos foi feita ao longo de séculos, em diferentes línguas por diferentes especialistas, exibindo uma grande variedade nas formas de representar a mesma coisa. A grande variedade na descrição de manuscritos e as possibilidades oferecidas pelos sistemas de codificação conduziram a questões muito pertinentes: deve codificar-se tudo aquilo que se vê ou se julga ver por outros nos manuscritos? Ou apenas identificar o que é considerado útil por outros e codificar apenas isso?

Estas perguntas dão o mote para abordar mais uma questão importante na relação entre codificação e texto. Já foi demonstrado anteriormente que existem limites impostos à codificação resultantes de uma concepção errónea do que é o texto. Porém, o manuscrito põe em causa muito mais do que uma concepção de texto. Como Peter Robinson[5] demonstra, o manuscrito coloca o problema da escolha. A cada palavra, cada letra, o editor deve escolher representar ou não determinada marca, ignorar ou não uma marca específica, codificar ou não determinado significado. Para Robinson, a decisão sobre o que codificar não se pode restringir apenas ao texto, deve ter-se em conta os objectivos e os utilizadores da transcrição.

Contra uma posição “Realist”, que define o texto enquanto uma hierarquia ordenada procurando identificar o que se encontra no texto e representá-lo na codificação não tendo em conta se será útil para especialistas, a concepção “Anti-realist” adopta uma posição dotada de pragmatismo no que diz respeito à edição e codificação, tomando decisões baseadas naquilo que consideram ser de utilidade para os pesquisadores[6]. O próprio Robinson considera que esta perspectiva não se encontra isenta de problemas. Por vezes, as considerações do editor, no que diz respeito a determinado material, podem ser postas de parte, favorecendo uma perspectiva redutora por se considerar que vai ao encontro das necessidades do utilizador.

Apesar de apologista da posição não-realista, Robinson pôde constatar, através do seu trabalho com o Canterbury Tales Project, que é necessário um meio-termo. De facto, durante a transcrição de manuscritos sentiu-se muitas vezes obrigado a incluir e codificar elementos aos quais não reconhecia utilidade para os utilizadores. Face a isto, desenvolveu um conjunto de regras que permitem tornar mais clara as tarefas de marcação e codificação – a primeira diz respeito à aparência do texto e tem em conta como este aspecto é importante para a forma como o texto é utilizado; a segunda considera que se deve marcar apenas aquilo que pode ser susceptível de pesquisa e, por fim, a terceira aconselha uma divisão do texto que permita agrupar elementos iguais e elementos diferentes.

A ênfase apenas em uma destas regras desequilibra a marcação e conduz a uma codificação distorcida. O H.T.M.L. constitui um exemplo da primeira regra, dando importância à aparência e pouco mais. O S.G.M.L inclina-se demasiado para a terceira, para a noção errónea de que se conseguirmos traduzir correctamente a estrutura, então obteremos a aparência certa e a pesquisa não encontrará problemas. Na prática, reduz-se ao acaso – é marcado um determinado elemento porque alguém pode querer pesquisá-lo. Isto pode conduzir a uma codificação exageradamente complexa, à redundância da marcação de elementos e ao difícil processamento de textos.

McGann considera que a verdadeira representação critica não espelha perfeitamente o seu objecto mas, pelo contrário, deforma-o conscientemente[7]. As formas estéticas manipulam a sua própria percepção para criar determinadas retóricas ou padrões superficiais que organizam e complicam o nosso entendimento. Uma manobra crítica importante consiste em deslocar ou deformar esses padrões dominantes para que se abram novas portas de percepção no que diz respeito a novos pontos de vista. As deformações críticas podem ser aplicadas ao acaso ou de acordo com protocolos pré-estabelecidos. Utilizando o Adobe Photoshop arbitrariamente para fazer transformações em pinturas de Rossetti, McGann descobriu que muitas delas eram dominadas por vórtices e espirais que se entrecruzavam. Este tipo de transformações permite expor características formais e libertar a percepção dos padrões usuais.

Um novo nível de análise textual pode ser obtido mediante a utilização de programas que deformam sistematicamente e de forma aleatória os textos que abordam e submetem essas deformações à consideração humana. Os computadores não possuem mais capacidades para descodificar um texto que a mente humana; podem, contudo, expor elementos e características textuais que se encontram fora da  análise habitual feita por leitores humanos. Os computadores não discriminam nenhum aspecto ao contrário de nós, as nossas leituras são sempre sujeitas a qualquer tipo de revisão ou até à eliminação. Isto ocorre porque os textos possuem uma multiplicidade de códigos que se organizam de forma recursiva pelo que a mente humana considera possibilidades de leitura que acabam por se submeter sempre ao que consideramos ser o sentido especificamente construído pelo autor. Desta forma, a aleatoriedade, a falta de discriminação do computador devem ser exploradas. Interessam-nos todas as possibilidades que foram negadas ou não parecem sequer ter sido contempladas na elaboração do texto.

O hipertexto, pela sua própria natureza, coloca ênfase na intertextualidade e fá-lo de uma forma nunca atingida pelo livro. Libertando o texto de determinismos históricos, sociológicos e psicológicos, abre-se uma infinita panóplia de inter-relações, por outro lado, se a possibilidade de estabelecer relações entre textos está sempre presente o hipertexto não impossibilita a leitura ou mesmo a análise segundo os moldes tradicionais[8].

As possibilidades oferecidas pelo hipertexto representam uma alteração importante no domínio da crítica literária. Actualmente, aquando da análise de um texto tentamos estabelecer diálogos com outros trabalhos ou combinar textos secundários, podemos também recorrer a outros tipos de materiais – som, imagem. Contudo, todos os materiais se encontram fisicamente isolados pelo que recorremos a uma série de mecanismos para estabelecer as relações que desejamos. Tais mecanismos incluem a alusão a outros textos quer mediante a referência directa e a citação de algumas partes (incluída no texto principal ou em nota de rodapé) quer pela inclusão na bibliografia. As notas de rodapé, assim como outras formas de referência, levam frequentemente o leitor a abandonar o texto principal e trabalhar com outra obra. Este trabalho requer bastante esforço e tempo. Com o hipertexto não encontramos diversos textos dispersos por vários suportes físicos mas sim uma representação no ecrã de uma determinada obra, sabendo que, ao mesmo tempo, se encontram acessíveis todos os outros textos que nos interessam ou podem ser de alguma utilidade. Além disso, a componente visual e sonora torna-se tão acessível quanto o texto.

 

Março de 2006

Faculdade de Letras, Universidade de Coimbra

© Tiago Jerónimo, tcjeronimo@hotmail.com

 

índice | contents


Notas

[1] Shillingsburg, Peter L., Electronic editions.

[2] Jerome McGann, "Visible and Invisible Books in N-Dimensional Space".

[3] Jerome McGann, "Visible and Invisible Books in N-Dimensional Space".

[4] Jerome McGann, , "Visible and Invisible Books in N-Dimensional Space".

[5] Peter Robinson, "Ma(r)king the Electronic text: How, Why and for Whom?".

[6] Peter Robinson, ibidem,  pp 311-312.

[7] McGann, ob. cit, p 173.

[8] George P Landow, Paul Delany, "Hypertext, Hypermedia and Literary Studies: The state of the art".

 

índice | contents


Valid CSS!| Valid XHTML 1.0 Transitional| Site Map | Contact | Updated 11 Feb 2013 | ©2005-2013 Manuel Portela