Supercomputação

  • 44 Respostas
  • 4372 Visualizações
*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #30 em: Março 27, 2018, 10:12:48 pm »
 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #31 em: Abril 05, 2018, 11:43:26 am »
Cambridge Analytica terá acedido a 87 milhões de perfis do Facebook


 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #32 em: Abril 10, 2018, 10:32:03 am »
Mark Zuckerberg pede desculpa por "erros" do Facebook


 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #33 em: Abril 17, 2018, 08:50:05 pm »
Rússia pede à Google e Apple para remover Telegram das lojas de aplicações


 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #34 em: Maio 03, 2018, 03:17:58 pm »
Cambridge Analytica vai encerrar


 

*

Cabeça de Martelo

  • Investigador
  • *****
  • 14269
  • Recebeu: 718 vez(es)
  • Enviou: 718 vez(es)
  • +53/-33
Re: Supercomputação
« Responder #35 em: Maio 04, 2018, 11:29:26 am »
Apenas mudou de nome...
7. Todos os animais são iguais mas alguns são mais iguais que os outros.

 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #36 em: Maio 16, 2018, 10:00:08 pm »
Zuckerberg será ouvido no Parlamento Europeu


 

*

Viajante

  • Especialista
  • ****
  • 1099
  • Recebeu: 275 vez(es)
  • Enviou: 155 vez(es)
  • +37/-8
Re: Supercomputação
« Responder #37 em: Maio 23, 2018, 09:49:39 am »
Microsoft e Google revelam novas falhas nos processadores da Intel

Os últimos meses não têm sido simples para a Intel. São muitas as falhas graves descobertas nos seus processadores e que tardam a ser resolvidas. A empresa tem-se empenhado em tornar públicas estas falhas e em resolvê-las, mas este esforço não parece ter sido até agora suficiente.

Depois de todo o problema em volta de todas as variantes do Spectre e do Meltdown, surgiram novas falhas, desta vez apresentadas em conjunto pela Google e pela Microsoft.



Foram estes dois gigantes da tecnologia que apresentaram a mais recente falha nos processadores da Intel, que pelo que é descrito, são em muito similares às anteriormente conhecidas Meltdown e Spectre.

A nova falha dos processadores da Intel

De nome Speculative Store Bypass (variante 4), esta nova vulnerabilidade é em muito similar ao que o Spectre explorava e permite a execução especulativa, que os processadores recentes têm presentes.


Um novo vetor de exploração da falha

Desta vez a exploração da falha pode ser feita em browsers com o Safari, o Edge ou o Chrome, e é feita via a execução de código, como, por exemplo, o JavaScript.

A Intel terá já iniciado o processo de correcção desta falha, que foi conhecida no final do ano passado, tendo enviado código de actualização para os fabricantes integrarem nos seus equipamentos.



A correção vai trazer perda de performance

O problema maior desta actualização é que desta vez vai mesmo existir uma degradação de desempenho, como se falava que seria possível em correções anteriores. Testes realizados mostraram uma degradação na ordem dos 8%.

A Intel está já a preparar os seus processadores para que de futuro estas falhas não existam e que estes estejam protegidos contra novos problemas que sejam revelados. Espera-se que na segunda metade de 2018 estes novos processadores cheguem ao mercado.

https://pplware.sapo.pt/informacao/microsoft-google-falhas-processadores-intel/

Mais uma falha grave revelada pela RedHat, que coloca a nu uma forma de qualquer pessoa entrar numa máquina sem ser detectada pelo sistema e aceder aos nossos dados. O vídeo explica muito bem como é que funciona o bug!
 
Os seguintes utilizadores agradeceram esta mensagem: HSMW

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #38 em: Julho 13, 2018, 11:10:20 pm »
EUA acusam 12 espiões russos por pirataria informática


 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #39 em: Julho 21, 2018, 04:50:50 pm »
Ciberataque em Singapura rouba dados a 1,5 milhões de pacientes


 

*

Daniel

  • Especialista
  • ****
  • 1151
  • Recebeu: 23 vez(es)
  • Enviou: 5 vez(es)
  • +43/-29
Re: Supercomputação
« Responder #40 em: Agosto 23, 2018, 02:36:49 pm »
Austrália afasta chinesa Huawei de operar rede 5G por razões de segurança nacional
https://jornaleconomico.sapo.pt/noticias/australia-afasta-chinesa-huawei-de-operar-rede-5g-por-razoes-de-seguranca-nacional-347080


Citar
A Huawei, gigante de telecomunicações chinesa, foi impedida de lançar a rede 5G na Austrália por razões de segurança nacional.O Governo australiano disse hoje que o envolvimento de uma empresa “provavelmente sujeita a instruções extrajudiciais de um Governo estrangeiro” representava um risco excessivo.

A Huawei tinha garantido que nunca entregaria dados de clientes australianos a agências de informação chinesas, mas o Governo de Camberra respondeu que nenhuma combinação de controlos de segurança mitigaria suficientemente o risco.

Decisão bastante inteligente.  8)
A Vida é um teste e uma incumbência de  confiança.
 

*

Lusitano89

  • Investigador
  • *****
  • 9243
  • Recebeu: 301 vez(es)
  • Enviou: 209 vez(es)
  • +15/-5
Re: Supercomputação
« Responder #41 em: Agosto 24, 2018, 02:03:42 pm »
"Trolls" russos promoveram discórdia acerca das vacinas nos EUA


 

*

Viajante

  • Especialista
  • ****
  • 1099
  • Recebeu: 275 vez(es)
  • Enviou: 155 vez(es)
  • +37/-8
Re: Supercomputação
« Responder #42 em: Setembro 18, 2018, 08:03:32 pm »
Google reduz os seus gastos com refrigeração em 40% graças a um algoritmo

A boa gestão de recursos permite economizar muito dinheiro. Nesse sentido a Google passou o controlo da gestão do arrefecimento dos seus datacenters para a Inteligência Artificial.

Com um fantástico algoritmo criado para o efeito, a gigante das pesquisas conseguiu que as suas infraestruturas de refrigeração tivessem um gasto de menos 40%.



Tendo em conta a forma como o mundo funciona, é fácil perceber que o consumo de electricidade nos data centers se tornou num grande problema para a indústria de tecnologia em geral. Dados referenciados num relatório de 2016 do Laboratório Nacional Lawrence Berkeley do Departamento de Energia dos EUA, deixou a nu uma realidade que nem não passa pela cabeça de ninguém.

Segundo estes dados apenas nos EUA estas infraestruturas de dados consumiram cerca de 70 mil milhões de quilowatts-hora em 2014, quase 1,8% do consumo total de todo o país.



Estes gastos traduzidos em dólares são contas que englobam muitos milhões que obrigam a uma gestão muito eficiente, exigindo estudos e tecnologias modernas. Nesse sentido, a Google há anos que vem a testar um algoritmo que aprende a tornar os sistemas de refrigeração mais eficientes – ventiladores, aparelhos de ar condicionado e outros equipamentos – para reduzir o consumo de energia.

Até agora, o sistema fazia recomendações aos administradores do data center, que decidiam se os implementariam ou não, o que se traduzia em economia de energia de cerca de 40% nesses sistemas de refrigeração. Agora, o Google deu o controlo total ao algoritmo, que gere a refrigeração em vários dos seus data centers de forma autónoma.

"Esta é a primeira vez que um sistema de controlo industrial autónomo foi implantado nesta escala."

Referiu Mustafa Suleyman, chefe de inteligência artificial da DeepMind, empresa de inteligência artificial com sede em Londres, adquirida em 2014 pelo Google.

Um problema que tende a crescer de forma descontrolada

O consumo de electricidade nos data centers tornou-se num grande problema para a indústria de tecnologia em geral e não há em vista uma forma mágica para resolver, há quem coloque as infraestruturas em zonas geladas e outros estão mesmo a “afundar” os seus datacenters, como vimos há algum tempo a atrás a Microsoft a testar.

Este projecto nos mostra o grande potencial que o IA tem para gerir infraestruturas. Embora o algoritmo trabalhe de forma independente, a pessoa o administra e pode intervir se o sistema fizer algo que não seja considerado apropriado.



As informações que já conhecem o modus operandi deste algoritmo explicam que este sistema usa tentativa e erro para aprender. A tecnologia permite determinar quais as configurações de refrigeração que reduziriam o consumo de energia. O sistema poderá assim gerar milhões de dólares em economia de energia e poderá ajudar a Google e outras empresas a reduzir as suas emissões de carbono, diz Joe Kava, vice-presidente de datacenters do Google.

O esforço para melhorar a eficiência energética destes datacenters tem sido muito grande. E os resultados afirmam que a eficiência atrasa já o aumento do consumo de energia nos novos datacenters.

Claro que estas notícias são sempre muito positivas, contudo, a realidade diz-nos que a refrigeração destes espaço representa “apenas” 10% do consumo. Assim, o próximo objectivo passará por optimizar o comportamento dos chips dos servidores de elevado consumo energético. As possibilidades de economizar neste ramo são até dez vezes maiores do que na refrigeração.

Sabemos também que a Google trabalha 100% com energia renovável, feito conseguido no ano passado, como demos aqui a conhecer.

Num futuro próximo a intenção é trazer a Inteligência Artificial para a gestão do consumo energético noutro tipo de instalações da empresa. A base de toda a sustentabilidade e desenvolvimento é a energia, bem escasso e que tem de ser cada vez mais preservado. Em breve a economia de electricidade em todo o mundo será algo urgente, estamos a desenvolver um mundo cada vez mais voraz de energia e não haverá tantos recursos assim para desperdiçar.

https://pplware.sapo.pt/google/google-reduz-os-seus-gastos-com-refrigeracao-em-40-gracas-a-um-algoritmo/
 

*

Viajante

  • Especialista
  • ****
  • 1099
  • Recebeu: 275 vez(es)
  • Enviou: 155 vez(es)
  • +37/-8
Re: Supercomputação
« Responder #43 em: Setembro 18, 2018, 08:51:26 pm »
Visitámos o “cérebro” do Facebook. É aqui que moram todos os nossos dados

São 200 mil quilómetros de cabos que distribuem tudo o que fazemos no Facebook, Instagram e WhatsApp por milhares de servidores. Neste centro, estão guardados os dados de 2,5 mil milhões de pessoas.

Por favor, não toquem em nada, este é o sítio onde o Facebook vive — três edifícios assentes em 101 hectares de terra, nos arredores de Dublin, na Irlanda, a partir de 11.800 toneladas de aço. São duas Torre Eiffel deitadas em 22,5 estádios da Luz, num só prado verde. Não há sinalização à chegada, nem logótipos, nem as cores que nos habituámos a associar a Mark Zuckerberg. Há um posto de segurança pelo qual temos de passar no início. Identificação verificada, autorização dada, seguimos. No campo onde está o centro de processamento de dados da maior rede social do mundo, ninguém nos abre a porta. Ela abre-se sozinha. Um toque na campainha, uma tentativa de empurrar, uma luz num intercomunicador que se acende: “Esperem que a porta abra”. Está gente em casa, mas ninguém aparece.


Só depois de entrarmos no Clonee Data Center é que encontramos as referências ao Facebook

O tapete azul que pisamos à entrada dá-nos o “bem-vindos” que esperávamos: estamos no Clonee Data Center, que agrega os dados de 2,5 mil milhões de utilizadores do Facebook, Instagram e WhatsApp — e um dos seis centros que a rede tem atualmente em funcionamento pelo mundo. Até 2020, Mark Zuckerberg espera ter 14 centros destes operacionais. O de Dublin abriu em abril de 2016 e ainda só tem dois edifícios em funcionamento. É a maior construção privada alguma vez feita na Irlanda, na qual trabalharam 1.550 pessoas, durante 7,2 milhões de horas, e onde foram utilizados 58 mil metros cúbicos de cimento para erguer os três blocos, o suficiente para encher 23,6 piscinas olímpicas.

O que é que um centro destes faz, afinal? Garante que os nossos dados não se perdem, caso algo aconteça. “Um centro de processamento de dados é onde a Internet vive, é onde se torna uma coisa física”, explica aos jornalistas Niall McEntergart, diretor das operações dos centros de dados do Facebook para a Europa, Médio Oriente e África.

“Aqui é onde o Facebook vive.” Estranho? Nem por isso. Pense na foto que partilhou no Instagram, nas mensagens que troca no WhatsApp e nos “Parabéns” que hoje deu a alguém no Facebook — no momento em que concretiza essas ações no telemóvel ou no computador, elas seguem pela rede para as centenas de milhar de servidores que a empresa tem nos vários data centers. São eles “o cérebro” da rede social. Todos os elementos diferentes das publicações ou mensagens enviadas pelos utilizadores seguem quase em tempo real para sítios diferentes. “E isso requer que o site os carregue, envie pela rede, que eles cheguem ao centro de dados, que este saiba quem tu és, que utilizador és, quem são os teus amigos (…) Ele puxa toda essa informação para talvez mais de 100 servidores diferentes em múltiplos centros de dados, reúne-os todos para ti, num par de milissegundos”, acrescenta.

Niall McEntergart explica o funcionamento dos servidores do Facebook

Quando o Observador chega ao cérebro da maior rede social do mundo, o cinzento do céu irlandês confunde-se com o cinzento da estrutura metálica que nos recebe. A gama cromática é escassa, com exceção para a receção e para a parte dos escritórios — aí, não existem tonalidades em falta, nem mensagens, nem arte urbana. “Move fast and build things” (muda rápido e cria coisas, em português), lê-se num cartaz cor de laranja à entrada. Estamos no Facebook, mas num Facebook que tentar recuperar de polémicas, num Facebook que tem sofrido um rol de crítica em várias áreas, um Facebook que trocou o slogan inicial “Move Fast and Break Things” (Muda rápido e parte coisas, em português) por este, porque queria certificar-se que, além de estar a lançar coisas novas no mercado, estava a fazê-lo bem. A preocupação, no entanto, só surgiu depois das críticas.

Os olhos foram obrigados a desviar-se do painel laranja para o vídeo de três minutos que fomos obrigados a ver. É aí que o centro  apresenta todos os procedimentos de segurança do edifício. A partir deste momento, seguem-se corredores e corredores cinzentos com paredes brancas e cruas, e portas metalizadas que se abrem maioritariamente sozinhas. Numa das vezes, bastou um estalar de dedos do segurança para que se abrisse (e não foi magia). “Por favor, não toquem em nada.” De facto, não tocámos. Também não andámos sozinhos, nem queríamos: os corredores do centro são um autêntico labirinto, cada um dos edifícios tem cerca de 25 mil metros quadrados, o equivalente a três campos de futebol e meio. E nós só temos duas horas, porque ainda há um avião para apanhar nesse dia.

Por razões relacionadas com a segurança do data center, o Facebook não divulga quantos servidores tem em cada um dos edifícios. Uma coisa é certa: cada uma das coisas que fazemos online é guardada em sítios diferentes e copiada várias vezes. “Não queremos perder os teus dados caso algo aconteça, há várias cópias guardadas , que dependem do quão velhos os teus dados são”, explica Niall, que antes de trabalhar no Facebook passou por empresas como a Xerox e a Yahoo!. Os  dados dos utilizadores são divididos em duas categorias: os quentes e os frios.

Os quentes dizem respeito às coisas que as pessoas estão a fazer agora, ontem, na semana passada: os likes que fez nas publicações dos amigos, os comentários que deixou, as páginas que visitou, as conversas que teve, as músicas que partilhou, os artigos ou as fotografias. Os frios são tudo aquilo que fez no ano passado, há dois, três ou quatro anos, é toda a atividade mais antiga. Os dados quentes são copiados mais vezes pelos servidores: são feitas entre 3,2 e 3,6 cópias. Os mais antigos são menos: cerca de 1,8 cópias, “que é o suficiente para serem regenerados mesmo que os percamos”.


Niall McEntergart, diretor das operações dos centros de dados do Facebook para a Europa, Médio Oriente e África, com um dos servidores na mão

“Os dados mais recentes são aqueles para os quais os utilizadores olham mais. Não olham tanto para os mais antigos, que são comprimidos e armazenados em sistemas um pouco mais lentos, mas que requerem menos intensidade de energia e são, por isso, mais eficientes”, explica o responsável. Descobri-los nos diferentes servidores e reuni-los quando é preciso é feito através de um processo matemático. E pode alguém entrar no edifício, ligar um cabo USB aos servidores e copiar os dados dos utilizadores? Niall McEntergart ri-se: “Seria impossível alguém entrar aqui. Temos, como já dissemos, uma segurança muito, muito rigorosa. Construímos estes edifícios num sistema de redundância e mesmo que alguém tente tirar algo daqui, temos múltiplos níveis de redundância [dos dados] para garantirmos que tudo continua. Se este edifício deixar de trabalhar, podemos continuar a operar tudo de outro. É por isso que temos tantas cópias”.

À entrada de cada uma das salas onde moram os cabos de fibra, que fazem circular a informação e os servidores, está papel autocolante no chão. Os pés colam sem darmos por isso — é para ninguém entrar nas salas com pó vindo da rua.

“Ainda nada me assustou ao ponto de acordar a meio da noite num suor frio”

No ano em que a polémica entre o Facebook e a empresa de análise de dados britânica Cambridge Analytica marcou a atualidade tecnológica um pouco por todo o mundo, as atenções estão viradas para a forma como a rede social utiliza os dados dos 2,5 mil milhões de utilizadores. Em março, o The Observer e o The New York Times revelaram que a empresa britânica tinha usado indevidamente dados de 50 milhões (soube-se mais tarde que eram 87 milhões) de contas do Facebook para ajudar a eleger Donald Trump nas presidenciais dos Estados Unidos, em 2016. Em Portugal, acredita-se que a empresa poderá ter acedido aos dados de mais de 63 mil portugueses. O Facebook já sabia da existência destes dados desde 2015 e, apesar de ter pedido à empresa para os apagar, não verificou se isso tinha de facto acontecido.

Em 2013, os utilizadores participaram num teste de personalidade disponível no Facebook, acreditando que se tratava de uma investigação académica. Os dados fornecidos ao programador do teste foram depois vendidos à Cambridge Analytica para prever e influenciar o sentido de voto dos norte-americanos indecisos nas eleições de 2016, abrindo a discussão em torno da privacidade e do papel das tecnológicas na proteção da mesma. Sobre esta falha na segurança, Mark Zuckerberg pediu várias vezes desculpa: em entrevistas, no Facebook, no Congresso norte-americano — onde foi ouvido duas vezes num total de 10 horas — e no Parlamento Europeu. Prometeu melhoras, anunciou novas medidas na verificação dos programadores que podem utilizar a plataforma da rede social para desenvolver aplicações e mais escrutínio.

Como é que um escândalo como o do Cambridge Analytica afeta a atividade de um data center como o de Dublin, perguntou o Observador. NiallMcEntergart tenta fintar a pergunta, dizendo que os colaboradores da empresa têm muito orgulho em trabalhar para o Facebook e do que fazem, mas reconhece o constrangimento. “É óbvio que são coisas que ninguém gosta de ver acontecer, mas este mundo é muito diferente. A Cambridge Analytica depende das API [plataforma aberta de programação], por exemplo, são outras pessoas que usam os dados do Facebook. Estamos muito mais focados no mundo físico, isto é o sítio onde gerimos os ativos físicos, onde o Facebook vive fisicamente”, diz. E dá aquela tarde daquela quinta-feira como exemplo: “Podes ver por ti própria, enquanto caminhas por aqui, o nível de escrutínio e de segurança que vês em múltiplas ocasiões. Quando precisamos de desmantelar equipamento, por exemplo, reescrevemos a mesma drive sete vezes, para assegurarmos que não deixámos nenhum dado em lugar nenhum e que estão 100% seguros”.

O Facebook começou a utilizar o centro irlandês como suporte para todas as aplicações da empresa, onde se inclui o Instagram e o WhatsApp, em dezembro de 2017. Apesar da dimensão da estrutura que tem de gerir, Niall McEntergart diz ao Observador que ainda não teve de lidar com nenhum problema que lhe tirasse o sono. “Ainda nada me assustou ao ponto de acordar a meio da noite preocupado, num suor frio. Somos bons a gerir isto, as pessoas que estão aqui têm muitos, muitos anos de experiência e construímos uma equipa muito forte a nível global. Acabámos de abrir um centro em Singapura e estamos a construir outro na Dinamarca, tudo isto soma cada vez mais segurança e resiliência à nossa infraestrutura”, diz.


Niall McEntergart e Mark Hunter, responsável pela gestão do Clonee Data Center

Mas os dias não passam sem preocupações. O que assusta mais o cérebro que está ao leme de outro cérebro? Os fatores externos, que não estão sob o seu controlo, responde. “Coisas como desastres naturais mas também coisas mais simples, como continuar a encontrar pessoas soberbas, com as melhores competências do mercado, no ambiente tão competitivo em que estamos hoje. Andamos sempre à procura de boas pessoas, como as encontramos e como as mantemos”, diz. Quanto aos dados, “estão absolutamente sob o comando das nossas mentes”, acrescenta. Um comando que é difícil, mas que também é divertido pela escala que tudo tem: “Temos dezenas de milhar de servidores neste edifício, que estão todos ligados por 200 mil quilómetros de cabos de fibra. Gerir este tipo de escala de uma forma eficiente, inteligente e com as ferramentas certas é o mais difícil, mas também é o melhor, o mais divertido”.

Os dados gerados pelos 2,5 mil milhões de utilizadores da rede social passam por 200 mil quilómetros de cabos de fibra, aos quais Niall McEntergart chama “a super autoestrada da informação partilhada no Facebook“, porque são eles os responsáveis por transportar os dados por todo o edifício. “Dependendo daquilo que as pessoas estão a fazer, a informação é distribuída para vários sítios. São 200 mil quilómetros, o suficiente para dar a volta ao mundo cinco vezes. Seriam precisas duas pessoas a trabalhar ininterruptamente durante 12 anos para desmontar todos estes cabos”, explica. E quando o Facebook aumentar o número de utilizadores? Não há outra solução que não seja a expansão e a construção de mais cérebros.

Niall McEntergart explica como circula a informação dentro do centro de dados

“Estamos sempre a olhar para os novos utilizadores que vêm não só do Facebook, mas também do Instagram e do WhatsApp. E também para os dados que estão a ser gerados. Quando pensas nisto em termos da tecnologia que se utiliza, por exemplo, percebes que se olhares para o teu telefone há cinco anos, vês que a qualidade e resolução das fotografias e vídeos era muito pior do que agora“, explica Niall, que detalha como o tamanho dos ficheiros e dos dados cresceu nos últimos anos. “Temos de estar constantemente com atenção a isto, para nos assegurarmos que estamos a construir uma tecnologia e infraestrutura que faz face a essas necessidades. Estamos constantemente a olhar para novos mercados, novos países, sítios para onde podemos expandir e onde faz sentido estarmos”, acrescenta.

500 mil abelhas e uma subestação de energia própria

Vinte e cinco segundos. É mais ou menos este o tempo que demora a remover um dos servidores das várias prateleiras, caso precise de ser reparado manualmente, o que só acontece em 40% das vezes. Na maioria das avarias, a intervenção é feita através de um procedimento automático. “Temos muitos processos automatizados, contratamos o melhor talento que conseguimos encontrar e queremos que eles progridam. Não queremos que façam tarefas repetitivas e, por isso, desenvolvemos muita automação. Por causa da nossa escala, esta automação permite-nos ser mais eficientes na forma como reparamos estes sistemas: 60% dos erros que detetamos são reparados com processos automáticos que desenvolvemos aqui na Irlanda”, explica.

O hardware utilizado para processar os dados vem do Open Compute Project (OCP), um sistema de open source (sistemas de desenvolvimento aberto, para o qual várias pessoas podem contribuir) que a empresa ajudou a fundar em 2011 e que conta com o conhecimento de uma comunidade de 200 engenheiros. A missão do OCP é promover a abertura, inovação e um maior foco na eficiência energética nas tecnologias de computação. A infraestrutura necessária para fazer trabalhar um centro destes vem desta rede aberta de conhecimento. “Pusemos todo o nosso hardware hiper eficiente e o design dos centros de dados em open source, na esperança de ajudar empresas de todas as dimensões a usar a energia de uma forma mais eficiente e que essa eficiência leve a melhoramentos em toda a indústria”, explica fonte do Facebook.


Andar de cima do edifício, onde dentro destas caixas metálicas estão os centros de refrigeração

A energia necessária para fazer correr todos estes servidores e cabos também é  produzida no próprio centro. Movido 100% a energia renovável, o Clonee Data Center é um dos centros de dados mais eficientes do mundo no que à corrente elétrica diz respeito, explica Niall. Para fazer face ao consumo energético, Mark Zuckerberg construiu uma subestação de 220 quilovoltes no parque irlandês. “Creio que somos única empresa privada a ter uma subestação própria de energia. Se não tivermos eletricidade na qual podemos confiar, também não temos um centro de dados no qual podemos confiar“, diz o responsável. E sem centro de dados, não há Facebook.

Os milhares de servidores do centro de Dublin precisam de energia para operar ininterruptamente, o que acaba por gerar calor nos edifícios. Muito calor. Este calor provoca tipicamente um dos maiores desperdícios de energia dos centros de processamento de dados. Mas não naquele centro. Em Dublin, o calor gerado pelos servidores é arrefecido num sistema de refrigeração que usa vento e água para fazer recircular o ar. Como estes aparelhos refrigeradores estão colocados mesmo por cima dos servidores, o sistema de refrigeração desce diretamente para o sítio que precisa de ter a temperatura controlada. É assim que mantêm o ambiente estável dentro do edifício, numa temperatura nunca acima dos 27 graus. Quando estes valores e os da humidade oscilam, os alertas disparam.

Cá fora, ao verde dos várias dezenas de hectares que rodeiam os edifícios do Clonee Data Center há 10 colmeias que são a casa de 50 mil abelhas (em cada colmeia), tratadas por cerca de 20 colaboradores do Facebook. “E o mel é delicioso”, diz Niall, explicando que um dos compromissos da empresa é promover a fauna local. Não chegámos a ver o mel nem as abelhas, mas visitámos o centro no dia em que o Facebook anunciou um programa de doações para ações comunitárias na Irlanda, no valor de 2,5 milhões de euros, tal como faz nas outras regiões em que tem centros de processamento de dados. O objetivo é promover projetos locais relacionados com tecnologia e cultura.

...........

https://observador.pt/especiais/visitamos-o-cerebro-do-facebook-e-aqui-que-moram-todos-os-nossos-dados/
« Última modificação: Setembro 18, 2018, 08:54:36 pm por Viajante »
 

*

HSMW

  • Moderador Global
  • *****
  • 8104
  • Recebeu: 633 vez(es)
  • Enviou: 922 vez(es)
  • +37/-5
    • http://youtube.com/HSMW
Re: Supercomputação
« Responder #44 em: Setembro 22, 2018, 07:15:09 pm »

We’re Close to a Universal Quantum Computer, Here’s Where We're At
Quantum computers are just on the horizon as both tech giants and startups are working to kickstart the next computing revolution.
http://www.youtube.com/profile_videos?user=HSMW

"Tudo pela Nação, nada contra a Nação."