Digital Drops Blog de Brinquedo

Disponibilizado o SQL Server 2008 CTP 6

Por em 22 de fevereiro de 2008

SQL Já está disponível o SQL Server 2008 CTP 6.

Trata-se de mais um CTP (Community Technology Preview) no caminho para a disponibilização da versão final do SQL Server 2008, que é prevista apenas para o último trimestre do ano.

Este CTP é especialmente importante, porque já é um CTP feature complete, ou seja, todas as funcionalidades – features – já estão implementadas no produto e de agora até a versão RTM (Release to Manufactoring – versão final) apenas ocorrerão ajustes nas funcionalidades, mas nenhuma nova funcionalidade será acrescentada.

Nos CTPs anteriores, sobre os quais cheguei a realizar uma apresentação, haviam muitas funcionalidades incompletas. Auditoria, por exemplo, tem sido a funcionalidade mais caçada pelos DBAs, justamente por não estar nos CTPs atuais.

O download é oferecido em formato .iso ou em formato de executável de auto-extração, o que é uma mudança em relação ao CTP anterior, que podia ser baixado já no formato pronto de uma máquina virtual (ou seja, agora o trabalho de montar a máquina virtual é nosso :-P)

O tamanho da versão .iso x86 é de 1.25GB, o que na minha conexão velox acusa apenas 15hs de download, coisa simples.

Uma questão interessante é que tanto o Visual Studio 2005 como o Visual Studio 2008 precisam de update para poderem estar se conectando ao SQL Server 2008. Em ambos, a mensagem de erro esperada é a mesma : "Only servers up to Microsoft SQL Server 2005 are supported" . Mas afinal, como essas atualizações serão distribuidas posteriormente ? Um caso a se pesquisar…

Atualização para o Visual Studio 2005

Atualização para o Visual Studio 2008

Antes que vocês se decepcionem, já aviso : O Visual Studio 2008 ainda não consegue rodar o Linq-to-SQL sobre o SQL Server 2008, apenas com SQL Server 2005. Antes de reclamar, lembrem-se que ainda estamos em um CTP e temos um ano inteiro pela frente.

Baixe o SQL Server 2008 e comece a testa-lo desde já (CTP de Fevereiro)

emSoftware

Coleção brasileira de computadores Apple

Por em 22 de fevereiro de 2008

O MarioAV, um blogueiro brasileiro das antigas, compartilhou no flickr fotos de sua coleção de Macs, que ele vem acumulando há varios anos. Segundo ele, começou a colecionar computadores movido por nostalgia, já que foi editor das revistas Macmania e Magnet. Diz ainda:


Tive acesso privilegiado a muitos produtos e informações sobre o mundo da informática. Entrei para as revistas logo após a Apple abrir sua filial no Brasil. Fiz muitos testes e fotos de novos produtos em primeira mão. Depois, ainda trabalhei na PC Magazine. Isso quer dizer que eu tinha na mão todas as informações e contatos necessários para organizar rapidamente um esse museu particular de Mac. Em apenas um ano já reuni várias raridades históricas feitas entre 1979 e 2001, a maioria funcionando. Escrevo na Mac+ uma coluna descrevendo as antiguidades para a nova geração de usuários, e veteranos me escrevem oferecendo diações. Todos dizem a mesma coisa: “eu só abro mão de meu Mac velho se for ficar aos cuidados de alguém que se importa com isso, pois esse Mac teve um papel importante na minha vida.”

Ele conta ainda que gostaria de ter também PCs antigos, mas começou com Macs somente por questão de foco e espaço físico.

Quem tiver um micro que mereça um espaço em um museu e estiver procurando um bom dono, o Mário está à disposição.

Veja a lista dos destaques da coleção:

  • Apple II+ (1979)
  • Lisa 2 (1983/84
  • Mac IIci (1989)
  • Macintosh Portable (1989)
  • Mac IIsi (1990)
  • Classic II (1991)
  • PowerBook Duo 210 (1992)
  • PowerBook 180c (1993)
  • Color Classic (1993)
  • Power Mac 8500/120 (1995) (2 exemplares)
  • PowerBook 1400c (1996) (não funciona)
  • Power Mac 5500/250 (1997)
  • Performa 6300 com selo “Made in Brazil” (1997)
  • Power Mac 6500/300 (1997)
  • Newton eMate 300 (1998)
  • iMac G3 233 MHz “Bondi Blue” Rev. A (1998) (2 exemplares, um aguarda reparos)
  • G3 bege desktop (1998)
  • G3 bege minitorre (1998) (2 exemplares + um case vazio)
  • G3 torre azul 350 MHz (1999)
emApple e Mac

Carregador sem fios: agora vai?

Por em 22 de fevereiro de 2008

Após muitas promessas, parece que desta vez a tecnologia de recarga por indução magnética chegará ao mercado com força total. A MWg e Splashpower anunciaram um smartphone que é recarregado através de indução eletromagnética e que estará disponível no segundo semestre deste ano. Infelizmente, até o momento não foi divulgada nenhuma imagem do aparelho.

A primeira empresa a adotar a tecnologia desenvolvida pela Splashpower, a Mobile & Wireless Group (MWg), era até pouco tempo atrás conhecida como O2 Pacific, que dispoe de uma gama razoável de produtos.

A adição desta tecnologia fornecerá uma flexibilidade maior aos usuários em carregar seus celulares, MP3 e dispositivos móveis e era o que estava faltando para tornar os celulares mais atraentes. Afinal, quem não quer se livrar daqueles fios indesejáveis dos recarregadores?

emCelular Computação móvel Hardware

Microsoft muda sua política, e abrirá especificações

Por em 22 de fevereiro de 2008

Quem diria, agora é oficial! Após liberar ao público as especificações dos formatos binários do MS Office, que também relatei aqui no MeioBit.com, a Microsoft anunciou hoje que está mudando sua maneira de fazer negócios. Agora ela implementará quatro novos princípios de interoperabilidade:

1) Garantir conexões abertas para seus protocolos;
2) Promover a portabilidade de dados;
3) Suporte integrado para padrões da indústria;
4) Fortalecer seu empenho com os consumidores – inclusive comunidades OpenSource.

Caixa

Segundo Steve Ballmer (o Developers/Monkey Dance), CEO da Microsoft, (tradução livre) "Esses passos representam uma importante e significativa mudança em como nós compartilhamos informações sobre nossos produtos e tecnologias. Após 33 anos, nós compartilhamos muita informação com centenas e milhares de parceiros ao redor do mundo[1] e ajudamos a construir a indústria. Mas o anúncio de hoje representa uma expansão significante buscando maior transparência. Nossa idéia é prometer interoperabilidade, oportunidade e escolha[2] para consumidores e desenvolvedores através da indústria, fazendo nossos produtos mais abertos e compartilhando cada vez mais informação sobre nossas tecnologias."

[1]Mas na marra, né?
[2]Jamais imaginei a Microsoft dizendo isso.

Honestamente, não acreditei que isso um dia pudesse acontecer, e as coisas simplesmente aparentam estar mais leves desde que Bill Gates pendurou as chuteiras. O princípio da interoperabilidade, anunciado hoje, se aplica imediatamente para os seguintes produtos: Windows Vista (incluindo o framework .NET!), Windows Server 2008, SQL Server 2008, Exchange Server 2007, Office SharePoint Server 2007, e o melhor, Microsoft Office 2007. Da mesma maneira, também serão disponibilizadas 30 mil páginas de documentação no MSDN sobre protocolos de comunicação desenvolvidos e utilizados pela empresa, já disponíveis anteriormente em licenças secretas e restritivas (WSPP e MCPP).

E agora, comunidade open-source? Vocês reclamavam que não tinham acesso ao código de fonte dos produtos da Microsoft.O mesmo ainda não está disponível (depois dessa eu não duvido de mais nada…), mas em breve, tudo estará perfeitamente documentado. Satisfeitos? Podemos esperar melhorias nos programas que serão diretamente e indiretamente beneficiados depois dessa medida? Tomara que sim.

emIndústria

O erro do Software Livre

Por em 21 de fevereiro de 2008

Num blog até então desconhecido para mim, o autor relatou de maneira bem clara algo muito interessante: o principal erro do software livre. E do Linux, conseqüentemente.

21-02-08 Nelson haha 

Sem nem transcrever, uma única frase resume todo o artigo:

"O que acontece é que o tal “movimento de SL” é composto por pessoas muito chatas. Muito chatas! De xiitas que ficam demonizando a microsoft e os softwares pagos. Ficam com frases do tipo: “eu sou livre, seja livre vc tb”, “consegui usar o windows por 3 minutos sem travar rsrsrsrs” e essas coisas."

Realmente. O MeioBit mesmo já foi palco de várias discussões com gente que se encaixa na descrição do autor, e o brinde da insígnia Troll não foi criado por acaso. Poxa, pessoal… comecei a usar Linux em 2003, numa época que demonizar a Microsoft até fazia algum sentido: nós não tínhamos softwares e nossa compatibilidade era extremamente porca. E ainda houve épocas mais tenebrosas! Usar Linux deveria ser tão agradável quanto usar o MenuetOS, talvez pior. Os usuários Ubuntu que estão chegando agora nem sabem dos problemas que enfrentamos para que eles pudessem receber tudo mastigado e funcionando.

Será que essas pessoas (fanboys, claro!) não percebem o quanto o xiitismo e o radicalismo ideológico prejudicam a imagem do sistema operacional? Empresas adotam Linux não por ser livre, por que é bonito ou por que o Windows trava e todo mundo sabe disso – bem menos do que antes, sem qualquer sombra de dúvida. Hoje, empresas usam Linux (e não GNU/Linux) pois o sistema oferece mais vantagem na prática (incluindo o custo) do que o sistema da Microsoft. 99,9% das empresas que usam Linux não alteram o código de fonte de seus programas, mas adquirem licenças com a RedHat, Novell e Mandriva para que o sistema funcione e tenha garantia de suporte numa falha eventual. Elas pagam por isso.

Fico estupefato vendo pessoas que se intitulam usuários do sistema há 7, 8, 10 anos, e com mentalidade de adolescente-rebelde-socialista-protestando-da-janela-do-apartamento-em-zona-nobre. Homens feitos, 35, 40 anos. Pessoas assim deveriam saber de cor e salteado como as coisas funcionam, que o mundo não é lindo e maravilhoso, e que a idéia de software livre pregada pelo Stallman não é aplicável ao meio corporativo.

E o pior é que, essa turma de empolgados faz tanto barulho que quem acaba se prejudicando é quem realmente desenvolve, implementa e vende o sistema, quem empurra o Linux pra frente. Já não passou da hora da "comunidade software livre" amadurecer, abrir sua mente para novas tecnologias (inclusive da Microsoft) e parar com a utopia? O Linux ia crescer muito mais.

emOpen-Source

Google Health inicia testes

Por em 21 de fevereiro de 2008

Um dos grandes problemas para médicos e profissionais de saúde (como eu) que tratam doenças que envolvem diagnóstico e tratamentos complexos é a dificuldade de reunir todos os dados referentes ao paciente e tratamento recebido.

A idéia do Google é facilitar (muito) esta tarefa, ao oferecer um sistema que centraliza informações do prontuário médico online, estando disponível para médicos que estejam envolvidos com o paciente, bem como familiares, se assim desejado. Em parceria com a Cleveland Clinic, estão disponibilizando prontuários de pacientes através do Google Health.

Normalmente, na universidade onde trabalho, temos ensaios clínicos para tratamentos experimentais para câncer. Para que possamos avaliar corretamente o paciente e a possibilidade de participação em algum dos ensaios clínicos ativos, precisamos das seguintes informações:
1) Dados referentes ao paciente, como exames de laboratório simples e recentes
2) Dados de exames mais complexos, como tomografias e PET scans. Precisamos inclusive das imagens, de preferência em formato digital
3) Dados do diagnóstico e tratamento, incluindo: resultados de exames anatomopatologicos e principalmente os detalhes sobre o(s) tratamento(s) recebido(s), como tipo de tratamento, drogas usadas, doses, toxicidade, resposta (ou não) ao tratamento e datas exatas de cada um destes eventos.

Como se pode ver acima, é uma quantidade imensa de dados necessária para que o oncologista possa fazer sua avaliação corretamente, e obviamente, o paciente raramente saberá todos estes detalhes, altamente técnicos. Em uma típica consulta que recebemos, o paciente traz no mínimo 100-200 páginas de relatórios médicos, relatórios de exames e 1-2 CDs contendo as imagens dos exames radiológicos realizados. Tendo a consulta a duração de 45-60 minutos (incluido o tempo necessário para ver todos estes dados), imaginem a dificuldade em poder completar a avaliação e dar uma resposta ao paciente na primeira consulta. Frequentemente, a resposta é: “não temos dados suficientes, precisamos de X, Y e Z, retorne semana que vem”.

Agora imagine a situação, hipotética, que o mesmo paciente chegue, sem nenhum documento ou CD debaixo do braço, e simplesmente me permita acessar todas estas informações no Google Health. Além de estar tudo disponível imediatamente, tudo está de maneira estruturada e organizada. Isto permitiria uma qualidade de consulta muito superior, comigo tendo mais tempo para responder perguntas do paciente (e família), por exemplo, e pouca um (ou mais) retornos devido a dados insuficientes.

O grande (e talvez maior) problema é o de manter todos estes dados protegidos e disponíveis quando necessário. Outro problema significativo é garantir que estes dados sejam compartilháveis entre outros sistemas. Qual seria a melhor opção ?
1) O Google centraliza tudo, em um formato definido por eles
2) O Google centraliza, mas usa um formato aberto, definido por uma organização como a ISO
3) O armazenamento de dados é distribuído, em um formato como acima, com cada instituição responsável por manter seus dados disponíveis para o cliente, onde ser que ele esteja. Por exemplo, alguém em um hospital em São Paulo acessa diretamente os dados de exames obtidos em um hospital no Rio de Janeiro e Curitiba.

Todas as opções tem prós e contras. O Google Health esta usando um formato chamado Continuity of Care Protocol. Lidar com dados médicos é muito espinhoso, e é crítico que tudo funcione de acordo. Se eu fosse um médico no pronto socorro, não poderia pedir para o paciente voltar mais tarde: “sinto muito, senhor, mas os dados sobre sua doença não estão disponíveis, volte semana que vem, ok ?”.

Acho que o Google está dando passos importantes para organizar dados médicos. Espero que eles de fato criem algo que seja bom e que seja adotado por um bom número de instituições. Somente testando algo assim poderemos avaliar os problemas, e se é razoável continuar neste caminho.

emGoogle Indústria

A semana no MB Games

Por em 21 de fevereiro de 2008

Ultimamente o assunto que ganhou destaque foi a morte do HD-DVD, e o Meio Bit Games não poderia ficar de fora do velório! Comentamos a afirmação da Microsoft de que o ocorrido não fará seu Xbox360 perder mercado, e tentamos imaginar como será o mundo dos games depois do blu-ray. E ainda falando sobre a indústria, tivemos especulações sobre o Wii continuar a liderança nesse ano. Da mesma forma as primeiras imagens do PSP Phone pipocaram na rede e deram o que falar.

Falamos sobre a instalação do jogos de PS3, necessária e igualmente inconveniente. Também tivemos uma excelente matéria sobre o MMORPG multiplataforma Final Fantasy XI e outra sobre KartRider, um divertido e gratuito jogo de corrida online.

Tivemos um papo descontraido sobre Team Speak e "causos" que envolvem o uso de softwares para conversação in-game, e também sobre os chefes de fase tornarem a vida dos jogadores mais fácil. Como videogame também é cultura, tivemos uma matéria sobre o tema mitologia grega nos jogos e uma verdadeira obra de arte recriada em Second Life.

Para fechar, foi definido o mês de julho para o lançamento de Street Fighter IV, assim como tivemos a confirmação de que Gears of War 2 será lançado em breve.

emGames