estudo do uso de série de imagens de microscopia...

31
CNPEM: CTBE LNBio LNLS LNNano Estudo do Uso de Série de Imagens de Microscopia Eletrônica de Transmissão para Análise de Partícula Única Bolsista Lucas Muraro Sassi Estudante de Nanotecnologia Universidade Federal do Rio de Janeiro Orientador Dr. Rodrigo Villares Portugal / LNNano

Upload: hoangdien

Post on 24-Jan-2019

215 views

Category:

Documents


0 download

TRANSCRIPT

CNPEM: CTBE LNBio LNLS LNNano

Estudo do Uso de Série de Imagens de Microscopia Eletrônica de Transmissão

para Análise de Partícula Única

Bolsista Lucas Muraro Sassi

Estudante de Nanotecnologia Universidade Federal do Rio de Janeiro

Orientador Dr. Rodrigo Villares Portugal / LNNano

CNPEM: CTBE LNBio LNLS LNNano 2

Estudo do Uso de Série de Imagens de Microscopia Eletrônica de Transmissão

para Análise de Partícula Única

Bolsista Lucas Muraro Sassi

Estudante de Nanotecnologia Universidade Federal do Rio de Janeiro

Orientador Dr. Rodrigo Villares Portugal / LNNano

2012

CNPEM: CTBE LNBio LNLS LNNano 3

Agradecimentos À comissão organizadora do 21º Programa Bolsas de Verão e ao CNPEM pela belíssima iniciativa e fantástica oportunidade que me proporcionaram. Ao meu orientador no programa, Dr. Rodrigo Villares Portugal por todo conhecimento e ensinamento passados nesse período, por toda a paciência, todo o amparo nos momentos em que fiquei completamente perdido e, principalmente, pelo grande envolvimento em me ajudar a me tornar um cientista melhor. Ao Dr. Jefferson Bettini, por todo suporte e toda ajuda fornecida durante o projeto. Ao meu orientador de iniciação científica do instituto de Física da Universidade Federal do Rio de Janeiro, Prof. Rodrigo Capaz, por me ensinar, dia-a-dia, o que é ser um cientista, por recomendar a minha participação no programa e por todas as incontáveis vezes em que me ajudou e aconselhou, sempre visando o melhor na minha formação científica. Espero que, um dia, eu possa passar isso adiante. Aos meus colegas do curso de Nanotecnologia, que se entusiasmaram tanto quanto eu quando souberam que eu fui escolhido para participar do programa. Aos meus amigos do Rio de Janeiro, que tanto torcem por mim. A todos meus amigos bolsistas de verão, que fizeram dos meus dias em Campinas inesquecíveis. Com vocês, eu dei as gargalhadas mais espontâneas, vivi o companheirismo verdadeiro e aprendi coisas que vão ficar para toda vida. Não tenho palavras para agradecer isso. Um agradecimento especial a Felipe Venegas e Julián Cruz Montoya por realçar os valores de amizade e companheirismo, por me mostrar que a América Latina é muito maior do que conseguia ver, fazendo com que eu me divertisse muito com toda a cultura distinta que me ensinaram e por me ensinarem a cozinhar, algo que certamente vai ficar para toda minha vida. Finalmente, à minha família Verônica (minha mãe), Oswaldo (meu padrasto) e Gabriela (minha irmã) e à minha namorada (Marcella), com todo amor, pelo apoio incondicional e pelo altruísmo imensurável.

CNPEM: CTBE LNBio LNLS LNNano 4

Sumário

Conteúdo 1.Introdução ...................................................................................................................................................... 6

1.1. A Microscopia Eletrônica de Transmissão. ......................................................................... 6

1.1.1. O Detector. .................................................................................................................. 7

1.2. A Crio-Microscopia Eletrônica. ........................................................................................... 8

1.3. O Problema das Altas Doses de Radiação. ......................................................................... 9

1.4. Como Solucionar o Problema: O Artifício da Soma de Imagens e do Alinhamento. ......... 9

1.5. O Alinhamento. ................................................................................................................ 11

1.5.1. As Funções de Correlação Cruzada. .......................................................................... 12

1.5.2. O Método Força Bruta. .............................................................................................. 13

1.5.3. O Algoritmo de Interpolação Utilizado. .................................................................... 14

1.5.4. Fourier Ring Correlation. ........................................................................................... 15

2. Objetivo. ...................................................................................................................................................... 17

2.1. O Objetivo e a Proposta Original do Projeto. ................................................................... 17

3. Metodologia ................................................................................................................................................. 19

3.1. O Tratamento das Imagens. ............................................................................................. 19

3.2. O Alinhamento. ................................................................................................................ 20

3.3. Fourier Ring Correlation e Transformada de Fourier. ...................................................... 20

3.4. As Estratégias de Alinhamento Testadas. ........................................................................ 21

4. Resultados e Discussão. ............................................................................................................................... 22

5. Conclusões ................................................................................................................................................... 29

6. Bibliografia ................................................................................................................................................... 31

CNPEM: CTBE LNBio LNLS LNNano 5

Resumo Crio-microscopia eletrônica e análise de partícula única são técnicas que visam à obtenção de modelos estruturais de complexos macromoleculares. A amostra é congelada em gelo amorfo e em seguida milhares de imagens de partículas individuais de proteínas, em diferentes orientações, são coletadas em um microscópio eletrônico de transmissão. Posteriormente, essas imagens são processadas para obtenção do modelo estrutural da macromolécula. Entretanto, ao se utilizar a microscopia eletrônica de transmissão para aquisição de dados de amostras biológicas, o dano por radiação torna-se um fator de limitação da resolução, devendo ser evitado. Para isso, a aquisição de dados é feita em regime de baixa dose (entre 10 e 20 e-/Å2 ), ocasionando perda da relação sinal/ruído nas imagens obtidas. Sendo assim, há necessidades de se buscar a minimização do dano à amostra, obtendo-se contraste suficiente para visualização e processamento das imagens. Visto que o dano por radiação está relacionado à dose aplicada na amostra, uma das possibilidades para evitá-lo é a aquisição de séries de imagens, com doses abaixo do limite de dano. Depois de um processo de alinhamento, essas imagens podem ser somadas, melhorando a relação sinal-ruído sem ocasionar dano por radiação à proteína. Nesse projeto será investigado, através do uso de nanopartículas de ouro a possibilidade de obtenção de imagens de alta resolução, para análise de partícula única, através da aquisição de séries de imagens e da busca de diferentes estratégias de alinhamento, avaliando, assim, até que ponto é possível recuperar informação das imagens com baixa relação sinal-ruído, sem sofrer interferência do erros introduzidos pelo alinhamento.

CNPEM: CTBE LNBio LNLS LNNano 6

1. Introdução.

Tentar entender aquilo que constitui o nosso próprio corpo sempre foi uma das maiores inquietações da meditação humana. Compreender o funcionamento de moléculas que constituem nosso corpo pode fornecer um poder enorme a cada um de nós, pois entender como o corpo funciona é também um passo largo para que entendamos o que devemos fazer quando algo se comporta fora do esperado. Dessa forma, torna-se imprescindível conhecer as estruturas dessas moléculas, sobretudo aquelas que possuem funções vitais para o corpo, como proteínas, por exemplo, para que possamos pensar em avançar no desenvolvimento do desenho de fármacos ou de possíveis terapias para as diversas doenças que nos prejudicam.

Sabe-se que a função de macromoléculas biológicas, principalmente de proteínas, está fortemente correlacionada com sua estrutura. Portanto, torna-se fundamental o desenvolvimento de técnicas que permitam determinar a estrutura dessas macromoléculas. Dentre essas técnicas, por sua vez, destacam-se a cristalografia por difração de raios-x e a ressonância magnética nuclear (RMN). Como toda técnica de determinação estrutural, essas técnicas possuem limitações e, por isso, é sempre importante buscar técnicas que tenham limitações diferentes e possam fornecer informações distintas a fim de que se tenham mais opções para resolver um dado problema que dependa da estrutura da molécula.

Por exemplo, uma das limitações da cristalografia é que, em alguns casos, é muito difícil fazer cristais de proteína que difratem, entretanto essa técnica é uma das técnicas que fornece estruturas de mais alta resolução. A ressonância, por sua vez, tem a limitação de ser uma técnica mais usada com proteínas pequenas, abaixo de 30 kDa, mas é a técnica mais importante para observar o movimento das proteínas. O uso da microscopia eletrônica também tem limitações com o fato de ter que ser usada para proteínas grandes (em geral, acima de 100 kDa), pois, caso contrário, não se terá sinal suficiente para se fazer uma boa imagem. Além disso, é uma técnica que requer um grande poder computacional para o processamento das imagens e reconstrução da imagem tridimensional da proteína. Contudo, o uso da microscopia eletrônica de transmissão também traz vantagens, dentre as quais podemos citar a possibilidade de utilizar as amostras de proteínas em solução, podendo separar os diferentes estados conformacionais que estão presentes na amostra, ao mesmo tempo em que se é possível obter estruturas com resolução quase atômica.

1.1 A Microscopia Eletrônica de Transmissão. Em determinado momento, percebeu-se que a microscopia ótica possuía

limitações para ver objetos muito pequenos. Isso ocorre porque o comprimento de onda da luz visível tem algo entre 400 e 700 nanômetros, logo, não se pode ver nada menor do que isso. Para superar essa limitação, uma das alternativas pensadas foi a de usar elétrons para fazer imagens. Essa é a essência da idéia da microscopia eletrônica.

Portanto, basicamente, a microscopia eletrônica de transmissão funciona da seguinte forma: um feixe de elétrons é emitido por um canhão de elétrons, tem a sua trajetória alterada por um sistema de lentes magnéticas de modo a convergir para a amostra. Ao interagir com a amostra, o feixe pode passar pela amostra diretamente ou

CNPEM: CTBE LNBio LNLS LNNano 7

pode ser espalhado. Dependendo das configurações de observação, têm-se distintas imagens, imagens de campo escuro ou campo claro, respectivamente. Depois de interagir com a amostra, o feixe de elétrons tem a sua trajetória desviada novamente por um sistema de lentes objetivas até atingir uma tela fluorescente no fundo do microscópio onde se forma a imagem (ver figura 1).

Como diferentes regiões da amostra interagem diferentemente com os elétrons, observa-se uma imagem com contraste, devido a essa diferença, que fornece a imagem da amostra. É importante ressaltar que a imagem vista é uma imagem de projeção, isto é, a imagem vista é uma projeção bidimensional de uma imagem tridimensional.

Figura 1: a) Microscópio eletrônico de transmissão TEM-MSC (JEOL 2100) do LNNano, usado para fazer as imagens utilizadas nesse trabalho. b) Figura esquemática do microscópio.

1.1.1. O Detector. O microscópio possui um detector que é baseado em um semicondutor. Esses

detectores, por sua vez, possuem uma “corrente de obscuridade” (“dark current”), que é definida como a corrente existente quando nenhum sinal está incidindo no detector. O principal fator para a ocorrência dessa corrente é o fato de que esses semicondutores são geralmente dopados com elétrons ou buracos, dessa forma, a energia térmica gerada por uma temperatura não muito alta, como a temperatura ambiente, por exemplo, faz com que esses portadores fiquem livres e possam transportar corrente, gerando assim a corrente de obscuridade (Williams and Carter 2008).

CNPEM: CTBE LNBio LNLS LNNano 8

A maneira de resolver esse problema seria resfriar o detector a temperaturas de nitrogênio líquido, mas esse passo pode ser extremamente complexo e, ao introduzir uma superfície fria no interior de um ambiente com vácuo, essa pode acumular muita contaminação, portanto, é preciso conviver com a imagem proveniente da ativação térmica (Williams and Carter 2008).

Devido à corrente de obscuridade e a pequenas diferenças existentes na eletrônica do detector, como diferenças no cintilador e nas fibras ópticas, quando se faz uma imagem sem nenhum tipo de amostra, observa-se que a imagem obtida possui intensidades diferentes em cada pixel. Dessa forma, quando uma imagem é feita, está sempre sendo somado, ao seu sinal, o sinal dessa imagem de fundo gerada pelo detector. Portanto, a imagem que se observa passa a ser a composição do sinal da imagem com o ruído e, também, com o sinal da imagem de fundo.

A correção feita para esse problema consiste em fazer um gráfico, para cada pixel, que tem como eixo das ordenadas a carga acumulada, ou seja, a intensidade de cada pixel e como eixo das abscissas diferentes tempos de exposição. Por exemplo, pode-se fazer 10 tempos de exposição diferentes que vão de 0,05 – 10s. Para cada um desses intervalos de tempo, faz-se 100 imagens e soma-se o mesmo pixel em cada uma das 100 imagens de modo a obter um ponto do gráfico. Então, ajusta-se a melhor reta que passa por esses pontos, obtidos em diferentes tempos de exposição, e o coeficiente angular da reta fornece a taxa de variação da intensidade do pixel em função do tempo de exposição. A partir disso, descobre-se o quanto tem que ser descontado de sinal de cada pixel na imagem final para que se tenha a menor interferência possível dessa imagem de fundo (Vulovic, Rieger et al. 2010).

1.2. A Crio-Microscopia Eletrônica. Fazer microscopia eletrônica de transmissão de proteínas não é algo trivial. O

princípio básico da microscopia eletrônica é incidir um feixe de elétrons sobre uma determinada amostra, gerando uma imagem de projeção na tela fluorescente do microscópio. Nesse processo de interação entre o elétron e a matéria, ocorrem interações inelásticas, isto é, que acarretam a perda de energia de elétrons do feixe. Portanto, parte da energia dissipada contribui para danificar a amostra protéica, quebrando ligações que existem na estrutura da proteína.

A primeira técnica que apareceu como uma tentativa de superar esse problema foi a técnica conhecida como “negative-stain”. Essa técnica consiste em recobrir a sua proteína com um sal metálico, o que fornece um contraste de massa adequado para ver a proteína recoberta. O que vai ser visto é a forma da proteína, o problema é que detalhes muito finos com relação a forma não vão ser vistos (Frank 2006).

Então, a fim de tentar obter uma maior resolução com relação a detalhes mais finos da estrutura, foi sugerida a técnica de crio–microscopia eletrônica. Com essa técnica, é possível observar diretamente a estrutura da proteína, porque ela está no interior de uma camada de gelo vítreo. Para que isso ocorra, é preciso congelar a solução na qual se encontra a proteína, com etano líquido. O congelamento rápido em etano líquido faz com que as moléculas de água não se reorganizem, dessa forma o gelo não assume a forma cristalina, permanecendo amorfo. Caso isso não ocorra, as

CNPEM: CTBE LNBio LNLS LNNano 9

moléculas de água iriam se deslocar para ocupar suas posições corretas no cristal de gelo, o que acabaria destruindo a proteína (van Heel, Gowen et al. 2000).

1.3. O Problema das Altas Doses de Radiação. Anteriormente, nesse relatório, foram citadas, rapidamente, algumas das

vantagens do uso da crio-microscopia eletrônica para determinar estruturas de proteínas. Entretanto, como também já foi dito, toda técnica tem desvantagens e problemas que tentam ser contornados. Ao se utilizar o microscópio eletrônico de transmissão para analisar uma determinada amostra metálica, e dado que os metais são extremamente resistentes à radiação, quanto maior a dose de radiação usada, melhor será a imagem que se obterá, pois uma maior quantidade de elétrons atravessará a amostra, o que vai acarretar numa maior intensidade de sinal.

Como se sabe, o mesmo não ocorre com amostras protéicas. A alta dose de radiação que seria necessária para nos fornecer uma imagem com boa relação sinal/ruído acabaria por danificar a estrutura da proteína. Dessa forma, estaria sendo observado algo que não é fiel à estrutura real da proteína, o que não pode ser feito se o objetivo é obter estruturas de alta resolução. Portanto, para não afetar a estrutura da proteína, é preciso trabalhar com uma dose muito baixa de radiação. A literatura indica que se deve utilizar algo em torno de 1 a 2 e-/Ų para que não haja nenhum dano. Em contrapartida, ao usarmos uma dose tão baixa de radiação, introduz-se um novo problema: passa-se a ter uma baixa relação sinal-ruído (van Heel, Gowen et al. 2000; Karuppasamy, Karimi Nejadasl et al. 2011).

1.4. Como Solucionar o Problema: Soma de Imagens e Alinhamento.

Figura 2. Aumento da relação sinal-ruído através de uma soma de imagens. Cortesia de Rodrigo Portugal.

CNPEM: CTBE LNBio LNLS LNNano 10

A figura ilustra um dos fatos críticos na etapa de processamento das imagens:

somar imagens pode recuperar informação. Pode-se observar que a primeira imagem possui uma relação sinal-ruído muito baixa e, assim, não nos fornece muita informação. Tem-se apenas alguma informação sobre a forma do objeto, isto é, pode-se, de certa forma, identificar que a imagem se trata de um rosto, ou seja, consegue-se distinguir do ruído somente as informações de baixa freqüência da imagem. À medida que um maior número de imagens vai sendo somado de maneira coerente, passa-se a enxergar o rosto com maior detalhe, que são informações de mais alta freqüência da imagem.

Dessa forma, esse artifício de somar imagens parece ser uma forma adequada de resolver o problema. O que se deve fazer é adquirir uma série de imagens relativas à mesma região da amostra que foram feitas com baixa dose e depois somar essas imagens de modo a obter uma imagem com maior resolução (van Heel, Gowen et al. 2000; Frank 2006). O que vai limitar o número de imagens que vão ser somadas é a perda de resolução causada por erros inevitáveis no processo de alinhamento das imagens, como será visto mais adiante. Ao somarmos duas imagens que foram feitas com certa dose, obtém-se uma imagem que é quase equivalente a uma outra imagem que teria sido feita com uma dose de radiação igual à soma das doses que foram utilizadas anteriormente, ou seja, ao somar-se 50 imagens perfeitamente alinhadas que foram feitas com uma dose de 2 e-/Ų, obtém-se uma imagem que deveria ter uma relação sinal/ruído equivalente a uma única imagem feita com a dose de 100 e-

/Ų. Logo, essa parece ser uma boa solução para o problema das altas doses de radiação incididas sobre moléculas biológicas.

Todavia, durante o processo de aquisição das imagens existem alguns problemas que fogem ao controle do microscopista. Devido a uma limitação do aparelho, é inevitável que em todo processo de obtenção de imagens, a amostra sofra o que se chama de “drift”. Ao se comparar duas imagens que sofreram drift, nota-se que uma está transladada em relação à outra ou que uma se apresenta com certo ângulo de rotação em relação à outra ou, ainda, ambas as opções podem acontecer. Se, simplesmente, somam-se imagens que sofreram drift durante sua aquisição, acaba-se perdendo informação, como retrata a figura abaixo:

CNPEM: CTBE LNBio LNLS LNNano 11

Figura 3. A soma de imagens desalinhadas leva à perda de informação contida na imagem. Cortesia de Rodrigo Portugal.

Portanto, não se podem somar imagens de forma indiscriminada, isto é, é preciso que as imagens que vão ser somadas estejam alinhadas para que assim, haja uma soma coerente e não se perca informação. A figura 3 retrata o que acontece se somarmos imagens desalinhadas. Se esse alinhamento não for tão eficiente, no momento em que as imagens forem somadas, as informações de alta freqüência serão perdidas, isto é, os detalhes da nossa imagem, mas preservam-se as informações de baixa freqüência. Ainda é possível identificar que há um rosto sendo retratado. Contudo, se somarem-se imagens que estejam muito desalinhas, como no segundo caso retratado na figura acima, perde-se praticamente toda informação relativa ao objeto que estava na imagem.

1.5. O Alinhamento. Como já foi dito antes, imagens de microscopia de moléculas biológicas

possuem muito ruído e, por isso, é, praticamente, impossível trabalhar com essas imagens sem que se utilize de algum artifício para aumentar a relação sinal-ruído dessas imagens. Uma das formas, como já foi visto, é somar as imagens. Mas, para somar imagens, é necessário, antes, alinhá-las com relação a uma imagem de referência. Além disso, o processo de alinhamento é importante em uma série de outros processos que não envolvem a soma de imagens, como na comparação entre imagens, por exemplo. Portanto, pode-se entender o processo de alinhamento de imagens como a aplicação de operações de translação e rotação nas imagens para que elas adquiram a mesma orientação que uma determinada imagem de referência (Frank 2006). É fundamental que se tenha em mente que o alinhamento de duas imagens nunca é perfeito, sempre acontecerá de a imagem estar um pouco transladada ou girada, isso é algo inevitável. Entretanto, ainda é possível obter ganho de resolução somando imagens que tenham esse erro muito pequeno de alinhamento, mas a partir de um determinado número de imagens somadas, esse pequeno erro no alinhamento

CNPEM: CTBE LNBio LNLS LNNano 12

vai começar a fazer diferença e ser responsável pela perda de resolução da imagem. É dessa forma que se sabe o número exato de imagens que deve ser somado e é, também a partir disso, que se observa que é necessário testar diferentes estratégias de alinhamento a fim de se tentar aumentar o número de imagens que podem ser somadas sem perda da resolução para que a resolução da imagem final seja a maior possível.

O alinhamento de imagens é o processo no qual se baseia todo o projeto. Portanto, para uma melhor compreensão desse processo, é necessário que se defina, nesse momento, alguns conceitos importantes durante o processo de alinhamento.

1.5.1. As Funções de Correlação Cruzada. Essa é a ferramenta mais importante no alinhamento de duas imagens. Essas

funções são o que está por trás de, praticamente, todos os algoritmos de alinhamento. No projeto, usaram-se, basicamente, dois tipos de funções de correlação cruzada: a correlação cruzada translacional e a rotacional.

Para entender como funciona a correlação cruzada translacional, observe a figura abaixo:

Figura 4 : Esquema mostrando a função de correlação cruzada translacional. Retirado de Frank, J. (2006).

Pode-se ver na figura (a) que as imagens estão deslocadas uma com relação à

outra por um vetor, que na figura é chamado de rpq. Para descobrir o valor desse vetor, isto é, de quanto tem-se que deslocar a imagem para que ela fique alinhada com a sua referência, é preciso fazer o seguinte: faz-se a transformada de Fourier das duas imagens e multiplica-se essas imagens que foram geradas a partir da transformada. Então, faz-se a transformada de Fourier inversa na nova imagem obtida com a multiplicação e vamos obter um pico de sinal distantes do centro da imagem exatamente pelo vetor rpq, o que se vê na figura 4b e na figura 5. Dessa forma, sabe-se de que modo tem-se que deslocar a imagem que se quer alinhar com relação à referência (Frank 2006).

CNPEM: CTBE LNBio LNLS LNNano 13

A correlação cruzada rotacional funciona da seguinte forma: primeiro faz-se uma transformada polar em ambas imagens. Em seguida, observa-se a diferença de translação entre as transformadas, utilizando-se uma correlação cruzada translacional. Descobrindo o quanto tem-se que transladar para que a transformada polar de uma imagem seja alinhada com a transformada polar da referência, descobre-se o quanto a imagem em questão precisa ser girada para que se torne alinhada com a imagem de referência, pois cada translação está relacionada com uma rotação de um determinado número de graus devido a transformada. Então, volta-se na imagem original e aplica-se os parâmetros de rotação obtidos (Frank 2006).

Figura 5: Esquema explicativo da função de correlação cruzada. Tem-se duas imagens que estão transladadas uma com relação à outra. Faz-se a transformada de Fourier de ambas as imagens e essas são multiplicadas. Ao resultado da multiplicação, faz-se a transformada inversa e obtém-se um pico um pico distante do centro. Essa é a distância da qual tem-se que transladar a imagem em relação à referência para ambas as imagens fiquem alinhadas.

1.5.2. O Método Força Bruta.

O método Força Bruta é um dos métodos usados para começar o alinhamento. Antes de começar o alinhamento, escolhe-se uma imagem para ser a referência e, então, o que o software faz é tomar a outra imagem e fazer cópias dessa imagem em diferentes ângulos de acordo com o número de cópias que se pede para o software criar. Por exemplo, se pede-se para o software usar 36 cópias, o software vai copiar a imagem a ser alinhada 36 vezes com ângulos de 360°/36 = 10° de diferença entre elas. Depois, usa-se correlação cruzada para escolher aquela que melhor sobrepõe a imagem de referência. E, por fim, toma-se essa imagem para fazer os ajustes finos até que essa imagem fique o melhor alinhada possível com a referência. Ao final, o programa computa os parâmetros de quanto teve de transladar e girar a imagem para que ela ficasse alinhada com a referência e aplica esses parâmetros à imagem original.

CNPEM: CTBE LNBio LNLS LNNano 14

Figura 6: Esquema do método Força Bruta. Gera-se imagens em diferentes ângulos que são alinhadas com o padrão por correlação cruzada. A imagem que tiver o melhor alinhamento com a referência segue no alinhamento.

1.5.3. O Algoritmo de Interpolação Utilizado. A interpolação é um processo que altera a distribuição de pixels na sua figura.

Esse processo pode adicionar pixels, dividi-los, dentre outras possibilidades. Se uma imagem é movida por um número inteiro de pixels, não é necessário fazer uma interpolação na imagem, mas se ela é movida por um número não inteiro de pixels, então essa se faz necessária.

O que acontece é que, quando a imagem é movida por um número não inteiro de pixels, cada pixel irá ser reposicionado na borda dos anteriores, então é preciso recalcular cada pixel de alguma maneira. Isso está retratado na figura abaixo:

Original 45° Rotation 90° Rotation 2 X 45° rotations 6 X 15° rotations

(lossless) Figura 7: A rotação de um número inteiro de pixels não exige interpolação e, por isso, é a imagem em que não se perde informação nenhuma. Todas as outras rotações exigem interpolação e, por isso, ocorre perda de resolução. Imagem retirada de http://www.cambridgeincolour.com/tutorials/image-interpolation.htm acessado em 18 de Fevereiro às 19 horas.

Na imagem acima, é possível ver que, na imagem que sofreu uma rotação de

90°, não houve perda de resolução, é fácil ver que a figura girada é a mesma, continua

CNPEM: CTBE LNBio LNLS LNNano 15

possuindo os mesmos detalhes. Isso ocorre porque quando gira-se a figura original de 90°, nenhum pixel tem que ser reposicionado na borda de outros pixels, ou seja, a imagem foi movida por uma quantidade inteira de pixels. Quando se faz uma única rotação, pode-se ver que uma quantidade de detalhes considerável é perdida. Quanto mais rotações se faz, mais aproximações têm que ser feitas com os pixels da imagem e pior se torna a resolução da sua imagem final. Portanto, o ideal é fazer o mínimo de rotações possíveis na imagem.

Há várias formas de reestruturar os pixels de uma imagem. Cada uma dessas, dá origem a um método de interpolação diferente. No nosso caso, está-se usando o método bilinear, que faz uma média em 4 pixels vizinhos, dispostos num quadrado de 2 pixels de lado. Usamos esse tipo de interpolação, porque fornece resultados com razoável qualidade sem precisar de um grande poder computacional. A Figura 8 mostra o resultado da utilização do método de interpolação bilinear em uma figura de teste, mostrando a perda de informação nas altas frequências (interior da figura).

Imagem Original Imagem após 10 rotações de 15°

Figura 8: Mais uma imagem que mostra que repetidas interpolações acarretam perda de informação. Observa-se a perda de altas freqüências no centro da imagem da direita.

1.5.4. Fourier Ring Correlation.

Fourier Ring correlation (FRC) foi utilizada como uma medida da qualidade do alinhamento entre duas imagens. Sabe-se que, ao se fazer o espectro de amplitudes da transformada de Fourier de uma imagem, obtém-se uma nova imagem no espaço de Fourier. Portanto, o que o software faz é comparar essas imagens no espaço de Fourier analisando a informação em anéis. Um anel é formado por pontos que estão à mesma distância do centro, isso significa que toda informação contida nesse anel são informações de mesma freqüência, portanto, analisa-se sempre informações de mesma freqüência. Por isso, podemos saber, exatamente, em qual freqüência as imagens começam a se tornar diferentes. Em seguida, é feita uma curva que indica a similaridade entre as duas imagens, desse modo, quanto mais similares estiverem as imagens, pode-se inferir que melhor alinhadas estão.

CNPEM: CTBE LNBio LNLS LNNano 16

Figura 9: Esquema ilustrando a comparação dos anéis de duas imagens distintas no espaço de Fourier.

Tipicamente, a curva tem uma aparência de uma curva sigmóide. Ela começa

com um valor no eixo y próximo de 1, que seria quando as imagens são perfeitamente similares, pois é o que se espera à baixa freqüências, isto é, espera-se que a “essência” das imagens que estão sendo comparadas seja a mesma. À medida que se vai para freqüências maiores, a curva vai tendo uma queda até chegar a zero, o que significa que as imagens não têm mais correlação. Isso é esperado, pois, à medida que se vai para freqüências maiores, temos mais ruído na imagem, o que faz com que se tornem, cada vez mais, diferentes e, por isso, é onde ocorre a maior parte dos erros de alinhamento.

CNPEM: CTBE LNBio LNLS LNNano 17

2. Objetivo.

O objetivo deste trabalho é investigar a utilização de imagens de baixa dose (1 a 2 e-/Å2 ) para aquisição de dados de partícula única. Para isso foram investigadas diferentes estratégias de alinhamento buscando avaliar até que ponto é possível recuperar informação das imagens com baixa relação sinal-ruído, sem sofrer interferência de erros introduzidos pelo alinhamento.

A Idéia do projeto é tentar responder essas perguntas utilizando nanopartículas de ouro, visto que o ouro é um metal e, por isso, ele suporta altas doses de radiação sem ser danificado. Portanto, usando altas doses, as imagens terão alta relação sinal-ruído e, assim, vão servir como padrões para efeito de comparação. Em seguida, faz-se a aquisição de uma grande quantidade de imagens com doses muito baixas, simulando o que deveria ser feito se houvesse proteínas no meio. Essas imagens terão baixa relação sinal-ruído e vão ter que ser processadas. Então, a idéia é saber se o processamento das imagens, baseado, principalmente, nos processos de alinhamento e soma das imagens vai conseguir fornecer imagens com resolução comparável com os padrões feitos com altas doses.

A intenção é utilizar as conclusões tiradas com esse trabalho e, futuramente, aplicar numa amostra que contenha moléculas biológicas. A ideia é adicionar nanopartículas de ouro numa solução com proteínas e usá-las como marcadores para o alinhamento. Isso funciona da seguinte forma: a partir das imagens contendo a proteína e as nanopartículas, faz-se uma máscara em torno de algumas nanopartículas, o que significa que se observam apenas as nanopartículas que estão mascaradas. Portanto, no momento do alinhamento, apenas essas vão ser alinhadas. Dessa forma, é importante ressaltar que a proteína não está sendo usada no processo de alinhamento, somente as nanopartículas estão, o que facilita muito o trabalho computacional, pois, ao invés de se alinhar a imagem da proteína, que possui muito mais informação, alinha-se apenas uma imagem que contém algumas nanopartículas. Portanto, como apenas as nanopartículas estão sendo usadas, as conclusões desse trabalho poderão ser aplicadas em situações em que há proteínas na amostra.

2.1. O Objetivo e a Proposta Original do Projeto.

Os objetivos do projeto continuam sendo os mesmos, ainda que não se possa usar a proposta original que havia sido pensada. Originalmente, pensava-se em usar uma amostra que consistiria de uma solução de nanopartículas de ouro e nanotubos de carbono multiparede. A ideia de usar nanotubos foi pensada porque proteínas são, essencialmente, estruturas de carbono. Além disso, nanotubos de carbono são estruturas mais resistentes à radiação, por isso, poderia usar-se altas doses de radiação para fazer uma imagem dos nanotubos com uma alta relação sinal-ruído para que servissem como imagens padrão. O projeto seguiria exatamente igual como o projeto que foi realizado, a única diferença reside no fato de que, no projeto original, as nanopartículas funcionariam como marcadores, isto é, seriam feitas máscaras ao redor de algumas nanopartículas e apenas essas seriam usadas para fazer o alinhamento, assim como foi dito anteriormente que poderia seria feito com uma amostra de proteínas a fim de reduzir o esforço computacional. Conseguindo-se alinhar as nanopartículas, espera-se que os

CNPEM: CTBE LNBio LNLS LNNano 18

nanotubos também estejam alinhados, visto que todos esses componentes fazem parte da mesma imagem. Portanto, o nanotubo não seria usado, de fato, no processo de alinhamento, o que faz com que não haja grandes perdas em relação às conclusões tiradas no projeto que foi feito. A mudança no projeto ocorreu, porque houve problemas com a câmera CCD que deveria ser usada na aquisição das imagens. Portanto, foram usadas apenas nanopartículas de ouro cujas imagens já haviam sido feitas anteriormente com essa câmera quando ainda não havia apresentado problemas. Abaixo, segue um esquema de como funcionaria a idéia original do projeto:

Legenda:

Figura 10: Esquema que retrata como funcionaria a idéia original do projeto.

CNPEM: CTBE LNBio LNLS LNNano 19

3. Metodologia.

O trabalho é focado no processamento das imagens. Para isso, foi usada uma grande quantidade de imagens de microscopia eletrônica de transmissão de uma amostra de nanopartículas de ouro feitas pelo pesquisador Dr. Jefferson Bettini do Laboratório de Microscopia Eletrônica (LME), pertencente ao Laboratório Nacional de Nanotecnologia. Nosso conjunto de dados consiste de 4 imagens padrão, 5 conjuntos de imagens com 50 imagens cada um, um conjunto de 69 imagens e um conjunto de 250 imagens. Com relação às imagens padrão temos os seguintes dados: a primeira foi feita com dose de 177 e-/Å2, a segunda com dose de 88 e-/Ų, a terceira com dose de 50 e-

/Ų e a última com dose de 25 e-/Ų e todas as imagens possuíam tamanho de 4.000 X 4.000 pixels. Quanto aos grupos de imagens de 50 e 69 imagens, todas as imagens de cada um desses grupos foram feitas com dose de 1,4 e-/Ų e possuem tamanho de 4000 X 4000 pixels também. Já as imagens do conjunto de 250 imagens foram feitas também com dose de 1,4 e-/Ų, mas possuem tamanho de 2.048 X 2.048 pixels. Para o processamento das imagens foi utilizado o software IMAGIC 4D (Image Science, Berlin.) Com o IMAGIC, é possível converter o formato das imagens obtidas com o microscópio para o formato “imagic”, com o qual podemos usar o software para utilizar comandos de filtro, alinhamento de imagens, dentre outros.

3.1. O Tratamento das Imagens. Antes de um processo de alinhamento, as imagens precisam ser tratadas. Isso é fundamental porque se isso não for feito, vão aparecer picos espúrios no momento em que o software tentar executar as funções de correlação cruzada, o que prejudica muito o alinhamento. Portanto, antes que qualquer tentativa de alinhamento fosse feita, eram feitos nas imagens os seguintes tratamentos:

“Zero - float”

Normalização

Mascaramento

Filtragem A intenção do “zero-float” é tirar um offset na imagem, isto é, fazer com que

haja uma distribuição do sinal para valores negativos e positivos, ou, de outra forma, fazer com que a escala de tons de cinza da imagem esteja centrada em torno do zero. A normalização é feita para que os tons de cinza de uma imagem estejam dentro de um determinado intervalo. Essencialmente, o que se faz no processo de normalização é definir valores máximos e mínimos para a escala de cinza e multiplicar ou dividir o sinal por uma constate para que se tenha a imagem com os tons de cinza nesse intervalo. Isso é importante, pois, se durante um alinhamento, uma das imagens possuir uma intensidade maior do que a outra, essa será a imagem que vai ter um maior peso no alinhamento.

A função da máscara é fazer com que apenas uma região no centro da imagem seja vista. Isso impede que as bordas da imagem possam exercer influência no processo, contribuindo com picos espúrios que podem atrapalhar no alinhamento das

CNPEM: CTBE LNBio LNLS LNNano 20

imagens. Por fim, é aplicado um filtro que corta as baixas freqüências em 0,0001 e as altas freqüências em 0,75 (esses valores representam a porcentagem em relação a frequência de Nyquist). Assim, corta-se da imagem as informações de freqüências muito baixas (rampas) e as de freqüência muito alta, que são, principalmente, ruído. Esse é um dos tipos de informação que mais atrapalha o alinhamento, então cortando um pouco de ruído, aumentamos consideravelmente a eficiência do alinhamento.

3.2. O Alinhamento.

Depois que as imagens já estão tratadas, pode-se começar a tentar alinhar essas imagens. O alinhamento feito no projeto obedeceu as seguintes características:

Foram utilizadas funções de correlação cruzada, translacional e rotacional, como base para o alinhamento de imagens

Foi usado o método força bruta durante o processo de alinhamento

O método de interpolação usado foi sempre o bilinear.

Já foi explicado na Introdução como funcionam as funções de correlação cruzada, que são o coração do alinhamento. Quanto ao método força bruta, ele foi usado de modo a produzir 17 imagens da imagem de referência em diferentes orientações nos alinhamentos desse projeto. A interpolação bilinear foi usada porque costuma fornecer resultados razoavelmente bons sem exigir um poder computacional muito grande.

3.3. Fourier Ring Correlation e Padrão de Difração do Ouro. A partir do momento em que as imagens estão alinhadas, pode-se somá-las de

forma a recuperar, cada vez mais, a alta resolução da imagem, caso não haja nenhum erro no alinhamento. Portanto, após os alinhamentos, somamos o grupo de imagens alinhadas, dessa forma, podemos usar essa soma para fazer uma comparação com a soma das imagens do mesmo grupo que foram alinhadas por um método diferente, com a soma das imagens que tiveram o mesmo alinhamento, mas são de um grupo de imagens distinto, ou, ainda, com uma imagem padrão feita com uma dose equivalente para avaliar o quanto de informação foi recuperada. Uma medida melhor do que simplesmente a inspeção visual é a medida chamada de Fourier Ring Correlation (FRC), que já foi explicada na introdução. Ela mede o grau de similaridade entre duas imagens, comparando anéis do espectro de amplitude da transformada de Fourier das imagens. Fazendo a análise visual e o FRC pode-se dizer que uma das estratégias de alinhamento funcionou melhor que a outra.

Uma outra forma de medir se a informação de alta resolução está sendo recuperada é tentar observar se o padrão de difração do ouro se mantém igual tanto na soma das imagens alinhadas como na imagem padrão. Para isso é preciso obter o espectro de amplitudes da transformada de Fourier e, então, se o anel que representa o padrão de difração do ouro estiver presente em ambas imagens, significa que a informação de alta resolução está sendo recuperada.

CNPEM: CTBE LNBio LNLS LNNano 21

3.4. As Estratégias de Alinhamento Testadas. Para testar as estratégias de alinhamento, escolheu-se um dos conjuntos de 50 imagens a fim de se identificar mais facilmente possíveis fontes de erros. Desse modo, testamos, basicamente, três tipos de estratégias:

1) Alinhou-se todas as imagens com relação à primeira imagem do conjunto e somaram-se essas imagens alinhadas.

2) Usando 48 imagens desse conjunto de 50, dividiu-se o conjunto de imagens em 16 subconjuntos de 3 imagens cada. Então, uma das imagens desse subconjunto servia de referência para o alinhamento das demais imagens. Em seguida, somava-se as duas imagens alinhadas com a referência e uma nova imagem era obtida para cada grupo. No passo seguinte, cada uma das 16 imagens resultantes eram separadas em pares, formando 8 grupos. Agora, em cada um desses grupos, uma imagem é alinhada com relação à outra e soma-se a imagem resultante do alinhamento com a referência. Dessa forma, vamos ter 8 imagens resultantes. Então, mais uma vez, essas imagens são separadas em pares e o processo segue o mesmo. Faz-se isso até restar uma única imagem.

3) Primeiro alinhou-se a segunda imagem com a primeira e somou-se essas imagens alinhadas. Então, alinhou-se a terceira com essa soma da primeira com a segunda e somou-se a soma da primeira com a segunda com a terceira imagem e assim sucessivamente. Ou seja, nessa estratégia, sempre alinha-se uma imagem com a soma das imagens anteriores e depois soma-se essas duas imagens alinhadas.

CNPEM: CTBE LNBio LNLS LNNano 22

4. Resultados e Discussão. O primeiro resultado obtido é mais uma constatação, pois o fato de que se

necessita alinhar imagens já era sabido quando se iniciou o trabalho. Isso acontece, em grande parte, devido a um fenômeno chamado de “drift”. Quando ocorre drift, passa-se a ver uma região diferente da amostra e isso é causado, na maior parte das vezes, pelo fato do porta-amostra “deslizar” (como pode-se deduzir do significado da palavra em inglês, “drift”, que significa deslizar), visto que o movimento do porta-amostra se dá devido à cristais piezo-elétricos e molas. Apesar de serem instrumentos de precisão, não há como se ter um controle total da posição, esses instrumentos possuem um certo movimento ao longo do tempo em escala nanométrica e, por isso, à medida que as imagens vão sendo adquiridas, observa-se, cada vez mais, que as imagens estão sofrendo translações em relação às imagens iniciais. Por isso, as distâncias que o software teve de deslocar as imagens para que elas se tornassem alinhadas com relação à primeira foram aumentando à medida que o tempo em que as imagens estavam sendo adquiridas também passava. Percebeu-se isso quando todas as imagens foram alinhadas com relação à primeira num grupo de 50 imagens e, ao ver os parâmetros de alinhamento, observou-se esse fato de que o software estava deslocando as ultimas imagens do conjunto por uma distância muito grande. Isso pode ser visto no gráfico abaixo:

Figura 11: gráfico do deslocamento das imagens em função do tempo (cada cor indica

um diferente conjunto de imagens). Para cada imagem do conjunto, o eixo das abscissas indica o tempo decorrido desde a aquisição da primeira imagem do conjunto e o eixo das ordenadas indica o deslocamento calculado pelo algoritmo de alinhamento. Os ângulos de rotação calculados são desprezíveis, da ordem de 0,01°. O deslocamento pode ser avaliado visualmente nas imagens e é decorrente do deslocamento do porta amostra durante a aquisição de dados (aproximadamente 1 a 4 nm/s neste caso).

CNPEM: CTBE LNBio LNLS LNNano 23

O que é importante observar no gráfico acima é que está havendo um deslocamento na região que o feixe de elétron está atingindo à medida que o tempo passa devido ao movimento do porta-amostra. O fato de algumas amostras se deslocarem mais do que outras ou de, em algumas amostras, esse deslocamento ser mais suave do que em outras, em que ocorrem “saltos” no gráfico apenas mostram que esse é um fenômeno do qual não se tem muito controle. Se as imagens da amostra que é representada na curva preta, por exemplo, forem refeitas, não necessariamente a mesma curva será obtida, pois o drift depende de como vão se movimentar os cristais piezo-elétricos e molas que são responsáveis pelo movimento do porta-amostra e isso é algo imprevisível.

O tempo de exposição para a realização de cada imagem foi de 250 ms, mas o tempo que se levava entre duas imagens era de 3 s. O cálculo do tempo de exposição é um fator importante dado que a dose de radiação é obtida através da multiplicação do fluxo de radiação incidente na amostra pelo tempo de exposição. Por isso, é preciso ajustar o fluxo e o tempo de exposição de forma a obter a dose desejada. A dose, por sua vez, é o parâmetro que nos interessa porque essa é a grandeza que está relacionada com a energia absorvida e é esse o fator mais relevante quando se pensa nos danos causados a uma molécula. Quanto maior é a energia fornecida à molécula em relação à energia de ligação entre os átomos da mesma, maior é o dano que se causa à estrutura. Uma alternativa para tentar melhorar a relação sinal-ruído das imagens seria diminuir o fluxo de radiação incidente e aumentar o tempo de exposição, porém o drift agiria como fator limitante nesse caso. O drift limita o tempo de exposição. Com um maior tempo de exposição, as imagens ficariam mais borradas na direção do drift e retratariam uma região bem menos similar em relação à região retratada na imagem inicial, o que dificultaria muito o alinhamento das imagens posteriormente. Portanto, o tempo de exposição é algo que deve ser bem pensado e alterá-lo não é algo trivial.

Quanto às estratégias de alinhamento, a estratégia que forneceu melhor resultado foi a de alinhar todas as imagens com relação à primeira. Pôde-se constatar que a segunda estratégia que tentamos, isto é, a de subdividir o conjunto de imagens em grupos, não foi tão eficiente porque, diferente da primeira estratégia em que cada imagem é movida uma única vez durante o processo de alinhamento, na segunda estratégia, as imagens são movidas muitas vezes durante o processo de alinhamento, por isso, como a imagem sofre muitos processos de interpolação, a resolução da imagem vai piorando gradativamente. Embora a terceira estratégia de alinhamento não tenha produzido uma imagem com uma boa resolução, essa era uma das estratégias da qual esperávamos obter bons resultados, visto que uma soma de imagens alinhadas tem um sinal mais forte do que uma única imagem, por isso, colocando como referência imagens com relação sinal-ruído maior, esperava-se que a imagem final resultante desse tipo de alinhamento fosse a de melhor resolução.

CNPEM: CTBE LNBio LNLS LNNano 24

Figura 12: Todas as figuras são apresentadas com o tratamento descrito na seção 3.1. A)

Padrão de mais alta dose com dose de 177 e-/Ų. B) Imagem final resultante da segunda

estratégia de alinhamento testada com uma dose equivalente de 70 e-/Ų. C) Imagem final

resultante da terceira estratégia de alinhamento testada com dose também de 70 e-/Ų.

Após constatar que a primeira estratégia de alinhamento testada era a que produzia a soma final de melhor resolução, comparou-se a imagem proveniente dessa estratégia com o padrão feito com a maior dose de radiação através do espectro de amplitudes da transformada de Fourier de ambas imagens a fim de verificar o quanto de informação de alta resolução havia sido recuperada com o alinhamento de apenas 50 imagens. Nas imagens do espectro de amplitudes foi possível ver um anel numa região de freqüência equivalente a 2,35 Å em ambas as imagens. Essa é a distância entre os planos do ouro onde ocorre a difração que é possível observar nas imagens. Pode-se ver, na figura abaixo, as imagens do espectro de amplitude da transformada de Fourier de regiões equivalentes do padrão e da soma das 50 imagens, que mostram

CNPEM: CTBE LNBio LNLS LNNano 25

que está sendo possível recuperar informação de alta resolução ao se alinhar 50 imagens tendo a primeira como referência.

Figura 13: comparação dos espectros de amplitude (EA) da transformada de Fourier dos resultados. Pode ser observado o padrão circular gerado pela distância interatômica de 2,35 Å das nanopartículas de ouro. A1) EA da imagem resultante da soma de 50 imagens alinhadas com relação à primeira imagem do grupo (com dose equivalente de 70 e-/Å2). Os demais anéis indicam que houve variação do defoco ao longo da aquisição de imagens. A2) EA da imagem padrão das nanopartículas de ouro adquirida com dose de 177 e-/Å2. B1) e B2) Média rotacional dos EA mostrados em A1 e A2, respectivamente. O anel indicado em A1 está em 2,39 ± 0,07 Å, mostrando a obtenção de informações de alta resolução.

É importante que fique clara a relação entre a transformada de Fourier e o

padrão de difração que se observa. A difração é um fenômeno de interferência de ondas espalhadas por uma determinada amostra. Se essa amostra for uma rede cristalina, por exemplo, poder-se-á observar a existência e medir o espaçamento entre os planos cristalinos da rede a partir do padrão de difração gerado. A transformada de Fourier, por sua vez, é a ferramenta matemática que leva uma imagem na qual a rede cristalina pode ser observada, isto é, uma imagem do espaço real, em um padrão de difração, ou seja, uma imagem do espaço de Fourier (espaço recíproco), de onde, como já foi dito, pode-se obter o espaçamento entre os planos cristalinos da estrutura, que refletem a periodicidade da imagem. Portanto, o resultado da transformada de Fourier sobre uma imagem fornece o mesmo tipo de informação que a difração de raios-x sobre uma amostra, por exemplo. A grande diferença é a de que a difração não depende da resolução do aparelho, enquanto o uso da transformada só mostrar os planos que estão dentro da resolução da imagem, que é sempre igual ou pior que a resolução do microscópio. No caso da amostra utilizada, o único espaçamento entre os planos das nanopartículas de ouro que era possível observar, devido a esse fato de ser

CNPEM: CTBE LNBio LNLS LNNano 26

o único espaçamento dentro da resolução da imagem, era o espaçamento de 2,35 Å entre os planos do ouro, que aparece na Figura 13 na forma de um anel, que está sendo identificado com uma seta. O fato desse anel aparecer significa que os planos cristalinos estão na imagem resultante da soma das 50 imagens do conjunto de imagens, ainda que seja difícil vê-los. A informação dos planos cristalinos na imagem é uma informação de alta resolução, portanto observá-los no espectro de amplitudes da transformada de Fourier é uma evidência de que se está conseguindo aumentar a resolução das imagens com os artifícios de alinhamento e soma.

Outra maneira usada para medir a qualidade da primeira estratégia de alinhamento foi utilizar todas as imagens que estavam alinhadas com relação à primeira imagem do conjunto e separá-las em dois grupos: um formado pela soma das 25 primeiras e o outro pela soma das 25 últimas. Em seguida, compararam-se esses dois grupos por meio de um FRC. Se o conjunto de imagens estiver bem alinhado, dever-se-ia observar no gráfico de FRC uma alta correlação a baixas freqüências e essa correlação deveria ir caindo até chegar a zero nas altas freqüências, quando se tem mais ruído e, por isso, as imagens perdem correlação. No entanto, não foi isso que se observou, as imagens possuíam uma pequena correlação a baixas freqüências e essa correlação caía muito rápido, mas nunca ficava abaixo da curva de 3σ, quando se pode considerar que as imagens não tem mais informação de correlação relevante. Então, repetiu-se o mesmo para imagens não alinhadas, ou seja, fez-se uma simples soma das imagens de número 1 a 25 do conjunto, sem alinhá-las e fez-se o mesmo com as imagens de número 26 a 50 do conjunto e compararam-se as duas somas. Pode-se ver que a correlação cai muito rapidamente no início, visto que as imagens não estão alinhadas, mas depois ela começa a subir, e corta a curva de 3σ, mostrando que existe correlação nas imagens não alinhadas, o que, aparentemente, não fazia sentido.

Figura 14: Análise de Fourier Ring Correlation (FRC) entre a soma das imagens 1 a 25, comparadas com a soma das imagens 26 a 50: imagens alinhadas com relação à primeira imagem do conjunto (preto); imagens não alinhadas (vermelho). As setas indicam a resolução de 2,35 Å.

O que explica o comportamento das curvas é o fato de haver problemas de

“flat” e “dark-field”, que geram como resultado da medida, “flat” e “dark-image”, respectivamente. Se for feita uma imagem sem nenhuma amostra no microscópio, o que vai ser observado é uma imagem com diferentes intensidades em cada pixel. Essa

CNPEM: CTBE LNBio LNLS LNNano 27

imagem é uma soma do sinal da imagem com a soma dos sinais de flat e dark-image. A flat-image é resultado de fatores, como pequenas diferenças na eletrônica e na óptica do detector que fazem com que o detector gere uma imagem com diferenças de intensidade em cada pixel. A dark-image, por sua vez, é resultado do problema que foi discutido na introdução que se deve ao fato de o detector ser baseado num semicondutor. Dessa forma, devido à energia térmica, os portadores de carga do semicondutor (dopado) passam a circular gerando o que se chama de dark-current. Essa corrente que passa no semicondutor também é responsável por dar origem a uma imagem com diferentes intensidades em cada pixel, que é a dark-image. Portanto, a imagem que se observa é, na realidade, a soma do sinal da imagem com o ruído e, também, com o sinal da “imagem de fundo” gerada pelo detector, que é a soma dos sinais da flat e da dark-image. Se trabalha-se com uma alta relação sinal-ruído, esse problema não é tão grande, pois essa imagem de fundo não modifica muito o sinal da imagem, entretanto, se a imagem tem uma baixa relação sinal-ruído, o sinal da imagem pode se tornar significante.

Como as imagens com relação sinal-ruído muito baixa são muito mais afetadas pela imagem de fundo, a estatística de correção tem de ser feita com mais cuidado do que quando se trabalha com imagens de maior relação sinal-ruído. Logo, provavelmente, o que ocorreu foi que, quando se fez a aquisição das imagens das nanopartículas, a estatística feita não foi tão criteriosa e, por isso, a influência dessa imagem de fundo no momento em que tentamos alinhar as imagens é muito grande. Além disso, o sinal da imagem de fundo é sempre adicionado da mesma forma à imagem, ou seja, ele é constante. Então, quando a imagem sofre drift e se move sobre o detector, o seu sinal varia muito, pois o sinal da imagem e o ruído se deslocam, mas a imagem de fundo não, o que provoca uma mudança no sinal que se tem em cada pixel em relação às imagens feitas anteriormente.

Portanto, o sinal da imagem de fundo e o sinal da imagem passam a “competir” na função de alinhamento. Provavelmente, foi por isso que a terceira estratégia de alinhamento não forneceu uma imagem de alta resolução, quando somávamos as imagens, estávamos reforçando o sinal da imagem de fundo, então, cada vez mais, o sinal da imagem de fundo é que estava sendo alinhado. Isso também explicaria porque o FRC das imagens nunca ia para zero, visto que as imagens continuam correlacionadas nas freqüências mais altas pela imagem de fundo.

Para verificar se realmente o ruído de fundo tinha contribuição significativa para o problema, foi feita uma simulação do seguinte modo: com o IMAGIC criou-se duas imagens constituídas apenas de ruído e fez-se um FRC dessas imagens. Como esperado, a correlação entre as imagens ficou em torno do zero, que é o esperado quando se compara o ruído de duas imagens, visto que são informações de freqüência muito alta e por isso é difícil de encontrar similaridade. Isso é visto na curva preta da figura abaixo. Depois, criou-se duas imagens de ruído, mas, dessa vez, esse ruído não é mais aleatório como o anterior, é um ruído que é sempre constante, o que simula bem a imagem de fundo. E, foi adicionado o ruído aleatório a esse ruído constante. Dessa forma, quando faz-se a FRC, a curva passa a estar transladada no eixo y, ou seja, não vai à zero, pois existe correlação entre as imagens dada pela imagem de fundo. Variando o peso que se atribui para o ruído constante ou para o ruído randômico, ou seja, os valores de sigma que se atribui a um tipo de ruído ou a outro, também variará a translação da curva em relação ao eixo das abscissas. Por exemplo, dando um sigma

CNPEM: CTBE LNBio LNLS LNNano 28

maior para a imagem de fundo, estamos aumentando a correlação entre as imagens, tornando-as quase idênticas, logo a curva fica mais próxima de um, como se vê na curva vermelha abaixo.

Figura 15: Simulação do efeito da imagem de fundo do detector no alinhamento de um de um conjunto de 50 imagens. Foram criadas imagens com o mesmo padrão de fundo (distribuição gaussiana) adicionado de ruído gaussiano, diferente para cada imagem. Os resultados mostram as curvas obtidas para diferentes relações entre desvio padrão da distribuição de fundo e do ruído

CNPEM: CTBE LNBio LNLS LNNano 29

5. Conclusões. A partir da estratégia utilizada de alinhamento das imagens com relação à

primeira imagem do conjunto, foi possível recuperar informação de alta resolução das imagens, observadas por dois métodos distintos, FRC e espectro de amplitudes da FT. Portanto, concluímos que a técnica proposta é válida embora necessite de várias melhorias para que possa ser utilizada como rotina.

A partir do gráfico de FRC da simulação feita, é possível concluir que a imagem de fundo do detector está compondo o sinal das imagens com as quais estamos trabalhando de modo significativo, o que dificulta muito o alinhamento, pois o sinal dessa imagem de fundo passa a “competir” com o sinal da imagem de fato, isto é, as imagens podem estar sendo alinhadas pelo sinal da imagem de fundo e não pelo sinal da imagem, como deveria ocorrer. Dessa forma, se deseja-se trabalhar com imagens de baixa relação sinal-ruído, com doses da ordem de 1 a 2 e-/A², necessita-se melhorar a estatística de cálculo da imagem de fundo do detector.

Outra conclusão é a de que talvez seja interessante usar a FRC para propiciar uma análise quantitativa da qualidade da imagem de fundo do detector para determinada dose, ou seja, faz-se duas imagens de fundo do detector e compara-se elas por FRC, se a curva estiver acima do eixo das abscissas, sabe-se que é preciso continuar somando imagens até que a curva de FRC esteja sobre o eixo.

Com base no fato de que a imagem de fundo do detector está atrapalhando o alinhamento, conclui-se que não necessariamente o alinhamento de todas as imagens do conjunto com relação à primeira vai ser a estratégia de alinhamento mais eficiente das três que foram tentadas. É preciso refazer o trabalho, porém, agora, com uma melhor estatística de cálculo da imagem de fundo do detector, para realmente saber qual das três é, de fato, a melhor estratégia de alinhamento.

Da segunda estratégia de alinhamento, foi possível concluir que estratégias de alinhamentos que utilizam interpolação intensivamente não apresentam bons resultados devido à perda de resolução em função da interpolação. Para utilização deste processo é necessário o cálculo de deslocamentos equivalentes e utilização de apenas um passo de translação e rotação, ou seja, em estratégias que utilizam mais de um passo de translação e rotação, faz-se todas as rotações e translações necessárias para que a imagem fique alinhada com a referência. Salva-se os parâmetros que informam o quanto a imagem final de todo o processo teve de ser transladada e girada em relação à imagem original (desalinhada) para que ficasse alinhada com a imagem de referência. Depois, aplica-se esses parâmetros na imagem original, dessa forma, a imagem original terá se movido apenas uma única vez, o que minimiza o uso de interpolações.

Quando se faz a transformada de Fourier, observa-se circunferências na região central da imagem,como se vê na figura 13-A1. Isso é o que se chama de variação de defoco da imagem que, por sua vez, indica que é necessário avaliar o deslocamento ao longo da direção do feixe do microscópio.

É de extrema dificuldade se ver livre do problema do drift. Esse problema diz respeito a uma limitação do aparelho, pois é muito difícil manter a precisão da posição em escala nanométrica, portanto é um problema inerente ao aparelho. Para somar imagens e aumentar a relação sinal-ruído das imagens adquiridas com baixas doses é de suma importância o processo de alinhamento das imagens a fim de corrigir esse

CNPEM: CTBE LNBio LNLS LNNano 30

deslocamento que foi inserido nas imagens pelo problema de drift, de forma que se possam somar imagens sem perder informação.

CNPEM: CTBE LNBio LNLS LNNano 31

6. Referências Bibliográficas.

Frank, J. (2006). Three-dimensional electron microscopy of macromolecular assemblies : visualization of biological molecules in their native state. Oxford ; New York, Oxford University Press. Karuppasamy, M., F. Karimi Nejadasl, et al. (2011). "Radiation damage in single-particle cryo-electron microscopy: effects of dose and dose rate." J Synchrotron Radiat 18(Pt 3): 398-412. van Heel, M., B. Gowen, et al. (2000). "Single-particle electron cryo-microscopy: towards atomic resolution." Q Rev Biophys 33(4): 307-369. Vulovic, M., B. Rieger, et al. (2010). "A toolkit for the characterization of CCD cameras for transmission electron microscopy." Acta Crystallogr D Biol Crystallogr 66(Pt 1): 97-109. Williams, D. B. and C. B. Carter (2008). Transmission electron microscopy : a textbook for materials science. New York, Springer.