Janeiro 2025
Janeiro de 2025
Estes monstros galáticos desafiam os modelos
De duas a quatro vezes mais maciças do que a Via láctea, cada galáxia deste trio, reveladas pelo telescópio espacial James-Webb, datam dos primeiros mil milhões de anos após o Big Bang. |
Três galáxias brilhantes, espreitando nas profundezas dos tempos, constituirião um dos “elos perdidos” na evolução do Universo.
Descobertas pelo telescópio espacial James-Webb, três galáxias datam dos primeiros mil milhões de anos após o Big Bang e pré-anunciariam os enxames de galáxias, essas formidáveis concentrações de matéria que hoje formam a estrutura do cosmos. Desde o início, que estas galáxias intrigaram os astrónomos porque são um pouco «monstruosas», confidenciou David Elbaz, diretor científico do departamento de astrofísica do CEA Paris-Saclay, e co-autor de um artigo publicado na Nature. «Fizemos um vasto estudo de 36 galáxias distantes, permitindo-nos ter uma visão completa dos primeiros mil milhões de anos da existência do nosso universo. E, entre muitas, encontramos estas três, que não se enquadram nos modelos de crescimento galáctico que temos disponíveis.»
Estrelas fabricadas com toda a sua força
Não só são enormes – a massa total das estrelas de cada galáxia varia entre duas e quatro vezes a da nossa Via Láctea – como continuam a produzir estrelas em abundância: cerca de 1000 por ano, 500 vezes mais do que a nossa galáxia. «De acordo com as teorias atuais, as galáxias convertem em média 10% dos bariões [protões e neutrões] disponíveis, em estrelas. Nestas, a conversão chega aos 50% », surpreende-se o investigador.
Para explicar tal frenesim criativo, os cientistas têm uma pista… «O Universo jovem é heterogéneo: certas áreas contêm mais matéria do que outras. E assim, nestas áreas densas, podemos esperar observar “concentrações” de galáxias ultra-maciças. Assim sendo, colocamos a hipótese de que estas três galáxias prefiguram o que se tornará um enxame de galáxias.»
Resta compreender os mecanismos que permitem uma conversão tão eficiente dos átomos em estrelas. «A solução está provavelmente nos filamentos intergalácticos, estruturas de gás difuso que ligam as galáxias. Estes filamentos ao formarem-se numa região densa, tê-las-ão nutrido com uma eficiência excepcional, acelerando a formação de estrelas», avançam os autores do estudo.
Para apoiar a sua hipótese, os investigadores gostariam agora de observar estes “cordões umbilicais” cósmicos. Mas estas estruturas frias irradiam pouco e são muito menos densas que as galáxias... Observá-las constitui um dos maiores desafios da astronomia observacional.
Fonte: Science et Avenir, n.º 935 - janeiro 2025, p. 10
F. N. (adaptado)
A mais rápida das revoluções científicas
Se a inteligência artificial já tem uma longa história, a chegada do ChatGPT há dois anos democratizou estas novas ferramentas generativas de IA com interfaces simples e intuitivas.
Na quinta-feira, 7 de novembro de 2024, Xavier Niel abriu a segunda edição do evento ai-Pulse, na Estação F de Paris, conversando com Moshi. Xavier Niel é o fundador do grupo de telecomunicações Ilíada, empresa-mãe da operadora Free. É a sua filial de alojamento e computação na nuvem Scaleway que organizou este ciclo de conferências e workshops dedicados à inteligência artificial (IA). Moshi é menos conhecido: é uma IA de voz que apareceu em julho passado e foi desenvolvida pelo laboratório de investigação Kyutai. Durante a manhã, Moshi teve um pequeno problema.
«Desculpe, não o compreendo, só falo inglês», lança a interface, visível no ecrã e dirigida a Xavier Niel… que acaba de falar nessa língua! Gargalhada na sala. «OK. Então vou deixar-te com pessoas que falam inglês melhor do que eu», respondeu o fundador da Ilíada. «Sim, será mais agradável para os nossos ouvidos», conclui Moshi, sem piedade.
Por mais divertida que seja, esta demonstração está perfeitamente em sintonia com os tempos. Durante mais de dois anos e com a chegada do ChatGPT da OpenAI no outono de 2022, a inteligência artificial generativa, e particularmente os modelos de linguagem, incorporaram a IA. Nos discursos, nos media, nos anúncios. «Para o público em geral, criou-se a ideia de que existe um antes e um depois do ChatGPT, reconhece Joseph Salmon, especialista em aprendizagem automática do Instituto Nacional de Investigação em Ciências e Tecnologias Digitais (Inria), em Montpellier. Especialmente quando se trata de tecnologia, tendemos a querer identificar momentos de disrupção.»
A realidade é mais matizada. Se há revolução, ela encontra-se sobretudo nos usos. O ChatGPT é uma interface muito simples e intuitiva que não requer conhecimentos técnicos. Digitamos texto como normalmente fazemos num motor de pesquisa. Avaliação: dois meses após a sua implementação na Internet, o ChatGPT contava com 100 milhões de utilizadores ativos. Seguiram-se vários interfaces concorrentes (incluindo o Gemini da Google), hoje integradas em ferramentas já existentes (automação de escritório, gráficos, motores de busca, etc.). São capazes de processar e gerar texto, imagens, vídeo e voz, com uma qualidade inédita e um realismo perturbador. «Para efeitos de comparação, após a chegada da Internet ao pública em geral, foram necessários dez anos para se verificarem mudanças reais na sua utilização e nos serviços», disse Michael Dell, CEO da DellTechnologies, que falou no ai-Pulse. A diretora do Paris AI Research Institute (Prairie Institute), Isabelle Ryl vai mais longe: «Nunca, na história da investigação científica, a velocidade de transferência foi tão rápida. Vemos investigadores a apresentarem os seus trabalhos na Siggraph [conferência internacional sobre imagem computacional e tecnologias interactivas] e a registarem uma patente no mesmo ano sobre o assunto em que foi apresentada e a seguir criarem uma start-up, doze meses depois».A IA generativa teve várias encarnações
O laboratório Kyutai é um bom exemplo deste ciclo acelerado. Inaugurada durante a primeira edição do ai-Pulse em novembro de 2023, esta estrutura privada sem fins lucrativos anunciou que o seu primeiro projeto seria o desenvolvimento de um modelo de linguagem multimodal (processamento simultâneo de dados textuais, vocais e de imagem). Oito meses depois chegou Moshi, cujo código está disponível, em fonte aberta. Mas este entusiasmo baseia-se numa longa evolução. A inteligência artificial generativa teve várias encarnações antes do aparecimento de interfaces baseados em instruções textuais como o ChatGPT ou o Dall-E. Inventado em 2014 por um investigador da Universidade de Montreal (Canadá), o método das redes adversárias generativas produziu os primeiros deepfakes e toda uma enorme excitação à volta da IA artística. Em 2015, o programa DeepDream da Google transformou automaticamente as imagens existentes (pinturas, fotos) em visões alucinadas. E a IA generativa é apenas um aspeto daquilo a que chamamos inteligência artificial estatística, a das redes neuronais. Que coexiste com outro ramo: a IA simbólica. Esta última consiste em codificar as regras de funcionamento e de comportamento de um algoritmo, de o programar explicitamente, em suma, um raciocínio (o computador Deep Blue, que venceu Garry Kasparov no xadrez em 1997, era uma IA simbólica). Isto permite compreender como é que um resultado foi obtido, especialmente se estiver errado.
Manter a cabeça fria face à máquina
Na IA estatística, um algoritmo de aprendizagem é treinado num corpus de dados cujas características analisa e extrai regularidades de si próprio. Uma vez testado e validado, este algoritmo utiliza o que aprendeu para processar dados semelhantes, mas nos quais não foi treinado. Poderá, por exemplo, reconhecer um objeto, uma voz, um rosto e identificar um tumor. Mas ele precisa de milhares de exemplos para lá chegar, quando apenas alguns são suficientes para um ser humano. Uma utilização pioneira deste tipo de algoritmo remonta à década de 1990: o reconhecimento de números manuscritos em cheques bancários. «Quando descobri as redes neuronais no início dos anos 2000, eram consideradas obsoletas, recorda Joseph Salmon. Estas arquiteturas eram difíceis de manusear, eram aborrecidas e as pessoas que nelas se aventuravam não apostavam em arquiteturas muito profundas, mas que hoje mostraram a sua eficácia.»
Probabilidades que servem de ajuda à decisão
A IA estatística arrancou graças à utilização de processadores eletrónicos inicialmente desenvolvidos para renderização gráfica, os GPU, que tinham que ver com o acesso a grandes quantidades de dados através da Internet. Como Michael Dell resumiu durante o seu discurso no ai-Pulse: «Onde houver dados, haverá IA para melhorar os resultados.» Os modelos de linguagem são o exemplo exagerado. ChatGPT, Gemini, Llama do Facebook ou Claude da Anthropic estão longe de ser os primeiros chatbots da história, mas a qualidade da expressão e a fluidez das interações são incomensuráveis com o que foi feito antes.
Os resultados fornecidos por uma IA estatística são, na realidade, probabilidades e apenas podem ser utilizados como apoio à decisão. Impõe-se uma verificação a posteriori. Um algoritmo de tradução substitui palavras escritas numa língua, por palavras de outra língua calculadas como as mais prováveis, e não com base no seu significado. Outra consequência do treino a partir de dados: a especialização. Uma IA capaz de vencer o melhor jogador de Go do mundo como o AlphaGo (do Google DeepMind) em 2016 é incapaz de conduzir um carro de forma autónoma. As redes neuronais apresentam outros problemas. São tão complexos que é difícil, senão impossível — mesmo para quem os concebeu — saber como alcançam os seus resultados. Este fenómeno, muitas vezes designado por “caixa negra”, é um verdadeiro desafio para a integração destas tecnologias em sistemas críticos (segurança, indústria). A tal ponto que se está a desenvolver um campo de investigação por si só em torno das noções de confiança e explicabilidade da IA. Mais uma vez, os modelos de linguagem fornecem uma ilustração extrema com as suas “alucinações”: resultados aberrantes que são difíceis de explicar, mas que a IA gera porque a sua lógica estatística exige que produza algo.
Extremamente dependentes dos dados, estes algoritmos estão também expostos a preconceitos. Na verdade, os organismos de formação nunca são neutros, porque são constituídos por humanos de acordo com uma série de critérios (culturais, linguísticos, etc.) e reflectem fenómenos latentes (racismo, misoginia). Com a consequência de favorecer determinadas características, correndo o risco de distorcer os seus resultados. Um caso típico: um algoritmo de recrutamento abandonado pela Amazon em 2017, porque favorecia os homens em cargos técnicos. Ou o preconceito que penalizava os negros numa ferramenta para ajudar a avaliar o risco de reincidência criminal, nos Estados Unidos. Contudo, é sempre possível corrigir a situação criando um corpus de treino mais equilibrado, mas está provado que a redução de uma distorção faz com que surjam outras... Finalmente, para uma determinada tarefa, a IA estatística tem dificuldade em processar e analisar casos atípicos porque, por definição, não houve exemplos suficientes no seu corpus de treino. Este é um problema notório, principalmente em termos de diagnóstico médico.”
Estes limites são conhecidos, bem identificados e são objecto de diversas investigações. A questão levantada por estas tecnologias, particularmente com a IA generativa, é a das relações que mantemos com elas ou o fascínio que exercem sobre nós, a ponto de depositarmos nelas uma confiança cega. Este é talvez o verdadeiro grande desafio da IA: os humanos manterem a cabeça fria perante as máquinas.
Para saber mais
Redes neuronais artificiais: Modelo matemático inspirado no cérebro humano. É composto por várias camadas de processamento de informação que lhe são submetidas antes de produzir um resultado (previsão).
Alucinação: conteúdo erróneo, completamente inventado e até bizarro produzido por IA generativa. É o equivalente a um bug que não sabemos explicar. O termo é discutível, pois antropomorfiza a IA.
Grande Modelo de Linguagem (LLM): Algoritmo treinado num grande número de dados para processar e gerar texto em linguagem natural. Baseia-se numa arquitetura de rede neural chamada transformador.
Consagração para as redes neuronais
A ciência da computação não é uma disciplina distinguida pelo Prémio Nobel, mas tem as honras do Prémio Turing. A 27 de março de 2018, foi atribuído a Yann LeCun, Yoshua Bengio e Geoffrey Hinton pelo seu trabalho em aprendizagem profunda, fontes dos atuais avanços deslumbrantes em IA. Avanços tais que dois investigadores da área acabaram ainda por receber o Prémio Nobel da Física em 2024: o biofísico John Hopfield e o informático Geoffrey Hinton. O primeiro apresentou uma rede neural artificial pioneira em 1982, que tem o seu nome. O segundo lançou, em meados da década de 80, um método de treino para redes neuronais, a retropropagação gradiente. Em 2012, Geoffrey Hinton e dois dos seus alunos da Universidade de Toronto (Canadá), Alex Krizhevsky e Ilya Sutskever (futuro progamador do ChatGPT), causaram sensação com este método na competição de visão computacional ImageNet, inaugurando o apogeu da IA estatística.
Uma corrida ao gigantismo
Os grandes modelos de linguagem (ou LLM) devem o seu nome ao volume do seu corpus de dados de treino e ao número de parâmetros. Estes correspondem às ligações entre os neurónios do modelo. Cada um tem um valor que determina a importância que a característica de um dado terá na aprendizagem. Nesta matéria, o excesso está presente na IA generativa atual. O modelo de código aberto Bloom tem 176 mil milhões de parâmetros, uma versão do Llama 3-1 vai até aos 405 mil milhões e o GPT-4o terá 1800 mil milhões. Este tipo de arquitetura exige enormes capacidades computacionais, com consequências preocupantes ao nível do consumo energético e pegada de carbono. Alguns, no entanto, tentam contrariar esta tendência, sem prejudicar as capacidades dos algoritmos. O centro de investigação francês Inria está a realizar investigação sobre a chamada IA frugal, que poupa dados e recursos. Este é também um dos credos do Kyutai, que pretende correr o Moshi num computador pessoal, sem utilizar a nuvem (processamento em servidores remotos).
«Atualmente, existe uma corrida ao armamento que não se justifica necessariamente», estima o seu diretor Patrick Perez. Durante a conferência ai-Pulse, o diretor-geral da Scaleway, Damien Lucas, estimou que seria melhor reunir as capacidades computacionais na Europa, de forma a oferecer um “infraestrutura elástica”, consistente com as necessidades de cada utilizador, em vez de sobredimensionar os centros de dados em processadores gráficos (GPU).
Fonte: Science et Avenir, n.º 935 - janeiro 2025, pp. 26-29
A. D. (adaptado)
Este é o primeiro grande plano de uma estrela situada fora da Via láctea. Foi obtido pelo Very Large Telescope (Chile) por interferometria. A estrela WOH G64, encontra-se a 1600 000 anos-luz de nós, na Grande Nuvem de Magalhães. É gigantesca - 1540 vezes o raio do Sol - e está a morrer. Chegada ao estádio de gigante vermelha, está a expulsar gás e poeira. Seguidamente, explodirá como uma supernova.
Um estudo feito sobre células de ratos, mostra que depois de um exercício físico, as contrações musculares produzem moléculas, as mioquinas, que favorecem o crescimento dos neurónios motores. Colocadas em contacto com estas moléculas , durante as experimentações, as células nervosas isoladas desenvolveram-se muito mais rapidamente.
Fonte: Sciences et Avenir, n.º 935 - janeiro 2025
O que posso observar no céu de janeiro?
7 - Lua no perigeu a 367 002 Km da Terra - 23:35
10 - Lua a 1ºS das Plêiades - 01:01
10 - Lua a 5ºN de Júpiter - 22:01
14 - Lua a 0,7ºS de Marte - 03:48
20 - Lua a 2ºN de Regulus - 05:37
21 - Lua a 0,14ºN de Spica - 02:11
24 - Lua no apogeu a 400 544 Km da Terra - 04:55
24 - Lua a 0,8ºN de Spica - 19:28
31 - Júpiter a 5ºN de Aldebaran - 22:02
Fases da Lua em janeiro
29 - às 12h 35min - nova
06 - às 23h 56min - crescente
06 - às 23h 56min - crescente
13 - às 22h 27min - cheia
21 - às 20h 31min - minguante
Planetas visíveis a olho nu em janeiro
MERCÚRIO - Pode ser visto a partir do dia 2 no crepúsculo matinal a partir das seis e meia e aparecendo cada dia mais tarde, até ao dia 9, deixando de ser visível até ao fim deste mês.
VÉNUS - Pode ser visto durante todo este mês ao fim do dia, no crepúsculo, como uma estrela muito brilhante, até perto das vinte e uma horas e trinta minutos.
JÚPITER - Pode ser avistado durante toda a noite.
SATURNO - Pode ser avistado durante a noite até por volta das vinte e duas e trinta minutos, gradualmente, desaparecendo mais tarde.
Fonte: APP Sky Tonight
(para localizações aproximadas de 41.1756ºN, 8.5493ºW)
Data | Magnitude | Início | Ponto mais alto | Fim | Tipo da passagem | ||||||
(mag) | Hora | Alt. | Az. | Hora | Alt. | Az. | Hora | Alt. | Az. | ||
1-1 | -0,7 | 05:18:14 | 14° | ENE | 05:18:14 | 14° | ENE | 05:18:58 | 10° | E | visível |
1-1 | -3,5 | 06:51:07 | 22° | ONO | 06:53:01 | 54° | SO | 06:56:18 | 10° | SE | visível |
2-1 | -3,7 | 06:04:21 | 75° | E | 06:04:21 | 75° | E | 06:07:28 | 10° | SE | visível |
3-1 | -0,7 | 05:17:36 | 16° | ESE | 05:17:36 | 16° | ESE | 05:18:22 | 10° | ESE | visível |
3-1 | -2,0 | 06:50:29 | 17° | OSO | 06:51:34 | 20° | SO | 06:54:04 | 10° | S | visível |
4-1 | -2,2 | 06:03:46 | 26° | S | 06:03:46 | 26° | S | 06:05:44 | 10° | SSE | visível |
10-1 | -1,1 | 19:23:21 | 10° | S | 19:23:48 | 12° | S | 19:23:48 | 12° | S | visível |
Como usar esta grelha:
Coluna Data - data da passagem da Estação;
Coluna Brilho/Luminosidade (magnitude) - Luminosidade da Estação (quanto mais negativo for o número maior é o brilho);
Coluna Hora - hora de início, do ponto mais alto e do fim da passagem;
Coluna Altitude - altitude medida em graus tendo o horizonte como ponto de partida 0º;
Coluna Azimute - a direção da Estação tendo o Norte geográfico como ponto de partida.
Coluna Azimute - a direção da Estação tendo o Norte geográfico como ponto de partida.
Fonte: http://www.heavens-above.com/
Pele de raposa, cone e árvore de Natal
Vídeo do Mês
Os autómatos celulares em 3D
(Quando necessário, para ativar as legendas automáticas proceder do seguinte modo: no canto inferior direito clicar no símbolo "roda dentada"; abrem-se as Definições; clicar aí e escolher Legendas; depois clicar em Traduzir Automaticamente; finalmente escolher Português na lista.)
Imagem do Mês
Pele de raposa, cone e árvore de Natal
O que é que as seguintes coisas têm em comum: um cone, o pelo de uma raposa e uma árvore de Natal? Resposta: todas ocorrem na constelação do Unicórnio (Monoceros). Considerada uma região de formação de estrelas e catalogada como NGC 2264, a complexa mistura de gás e poeira cósmica está a cerca de 2.700 anos-luz de distância e mistura nebulosas de emissão avermelhadas, excitadas pela luz energética de estrelas recém-nascidas, com nuvens escuras de poeira interestelar. A imagem em destaque abrange um ângulo maior do que uma lua cheia, cobrindo mais de 50 anos-luz, à distância de NGC 2264. O seu elenco de personagens cósmicos inclui a Nebulosa do Pelo de Raposa, cuja pele convoluta fica à esquerda do centro da imagem, a estrela variável brilhante S Mon, visível à direita do Pelo de Raposa e a Nebulosa do Cone perto do topo da imagem. Com a Nebulosa do Cone no pico, o formato do brilho geral da região dá-lhe o apelido de Aglomerado da Árvore de Natal , onde as estrelas são enfeites de árvore..
Fonte: www.nasa.govLivro do Mês
Sinopse
O grande cientista Robert M. Sapolsky, autor do best-seller Comportamento, vai ao âmago da ciência e da filosofia da tomada de decisões para questionar a existência do livre-arbítrio, uma ideia com consequências profundas.
Em Comportamento, uma obra já clássica onde explicita as razões pelas quais os seres humanos agem bem ou mal, Robert Sapolsky aponta uma conclusão perturbadora: podemos desconhecer a ligação precisa entre a natureza e a educação que cria a física e a química na base do comportamento humano, mas isso não significa que essa ligação não exista.
No presente livro, Sapolsky vai ainda mais longe, montando um brilhante (e, no seu estilo inconfundível, delicioso) ataque à fantasia simpática de que existe um eu independente que diz à nossa biologia o que deve fazer.
Sapolsky aplica este novo entendimento da vida sem livre-arbítrio a algumas questões humanas fundamentais, como a punição, a moralidade e a convivência pacífica. Por último, defende que, embora viver o quotidiano reconhecendo que não se tem livre-arbítrio possa ser tremendamente difícil, tal não tem de resultar em anarquia, falta de um propósito e mal-estar. Pelo contrário, produzirá um mundo muito mais humano.
Sobre o autor:
Robert M. Sapolsky, nascido em 1957 em Nova Iorque, é titular da cátedra John A. and Cynthia Fry Gunn e professor de biologia, neurologia, ciências neurológicas e neurocirurgia na Universidade de Stanford, tendo recebido uma «Genius Grant» da MacArthur Foundation.
Autor de diversas obras de não-ficção, entre as quais A Primate’s Memoir, The Trouble with Testosterone e Why Zebras Don’t Get Ulcers, o seu livro mais recente, Comportamento – A biologia humana no nosso melhor e pior, publicado pela Temas e Debates em 2018, foi um bestseller do New York Times e considerado o melhor livro do ano por The Washington Post e The Wall Street Journal.
Comentários
Enviar um comentário