Digital Drops Blog de Brinquedo

Desenvolvimento em Linux – Parte 1

Por em 6 de março de 2008

No princípio era o verbo, e o verbo era Unix.

E do verbo se criam dois pilares, que se tornam sustentáculos de uma batalha fervilhante em ideologias e teorias, que desgastam a integridade moral de seus articulistas, tudo para colocar em evidência a falta de paciência de quem já não consegue pensar por si.

Windows e Linux muitas vezes parecem ser personagens míticos de uma guerra indefinida e sem propósito em prol de sua “justificável” (injustificável!) supremacia indefinida sobre os olhos seu Deus (Unix). Do braço direito de Deus ao Anjo da Luz da eterna discórdia, assim como o Arcanjo Gabriel e Lúcifer, Linux e Windows parecem travar uma batalha épica entre o bem o e mal, muitas vezes invertendo seus papéis, de acordo com os olhos (e a mente) do narrador.

Que seja feito o Windows

Quando a informática ainda parecia só um conceito, e computadores eram coisas que as pessoas ouviam falar, o conceito de sistema operacional já era maduro, e muitos projetos foram criados a fim de satisfazer determinados problemas, indiferente das visões “top-down” e “bottom-up”.

Daí, uma “tal” empresa chamada Microsoft, fundada em 1975 resolveu entrar de “cabeça” nessa área, que até então era dominada por outros muitos gigantes da tecnologia, e então em 1979 surgiu o Microsoft Xenix, um sistema Unix que ela pretendia usar em microcomputadores, após adquirir uma licença Unix Versão 7 da AT&T, e era um sistema Unix completo, e foi provavelmente a versão a mais difundida do sistema operacional Unix em meados dos anos 80, e até hoje parece ser ignorada das páginas da história da empresa, como um filho que foge de casa e forma uma nova família com um sobrenome totalmente novo.

Certamente o Unix não foi o primeiro sistema operacional do mundo, mais com certeza foi um dos mais importantes, principalmente pelo advento da Linguagem C, que foi (é!) amplamente utilizado pelos sistemas operacionais modernos.

O Xenix era um sistema eficiente e cheio de recursos, porém depois da decepção de não poder licenciar o Unix, a Microsoft pareceu ficar “desiludida”, assim em 1987 a Microsoft vendeu a licença do Xenix para a Santa Cruz Operation (SCO) em um acordo que deixou a Microsoft proprietária de 25% da SCO, que por sua vez portou o Xenix para os processadores 386, iniciando uma novela que teve um final muito triste para a SCO, embarcada no desejo da Microsoft de obter as patentes do Unix, entrou em um processo judicial contra a Novell, que hoje detém os direitos do Unix, e após perder o processo pediu concordata.

Aliado ao custo das maquinas RISC, o Unix não atingiu massa critica como SO em estação de trabalho, e não demandou aplicações de automação de escritório.

Enxergando um mercado promissor (os PCs) a Microsoft criou outro projeto, ainda em 1981, o MS-DOS. O DOS já havia sido criado, pela Seattle Computer Products (SCP), concorrente para o CP/M, implementado para computadores da família IBM PC, porém a versão da Microsoft foi a mais difundida das variantes.

E um mortal se torna um Deus Olímpico.

Em 1985, quando a versão 2.0 do Xenix foi liberada, foi também adicionado o suporte para processadores Intel 80286, e mesmo 2 anos antes a SCO (futura dona do Xenix) tendo portado para o processador Intel 8086, já parecia esta claro para a Microsoft que o MS-DOS seria seu “verdadeiro produto”, este por sua vez já estava em sua versão 3.1, e incorporava muito da ideologia Unix, afinal a Microsoft tinha experiência com esse sistema. Características essas que estão até hoje nos Sistemas da Microsoft, como o Windows, que é POSIX compliant. E foi nesse mesmo ano, que se iniciou esse “projetinho” chamado Windows, que era “somente” uma interface gráfica bidimensional para o MS-DOS.

Ainda em 1985, a Microsoft fez um acordo com a IBM para desenvolver o OS/2, que foi um dos primeiros sistemas de 32bits de sua época. Assim, a Microsoft passou ser uma das empresas com maior domínio e experiência em sistemas operacionais, já possuía 6 anos de experiência com o Unix, e já estava produzindo uma variante do DOS a cerca de 4 anos, e agora em conjunto com a IBM estava produzindo o OS/2. Pessoalmente chamo esse momento da história de: O Grande plano.

E a partir daí, ambos projetos DOS e Windows cresceram muito, e obviamente incorporam conceitos do Unix e do OS/2, sistemas que a MS conhecia muito bem, até que em 1990 por uma decisão do Bill Gates a Microsoft decidiu abandonar o projeto OS/2, e em Maio do mesmo ano lançou o Windows 3.x, o primeiro sucesso amplo da Microsoft. Já esse momento da história eu chamo: O Grande golpe.

De lá para cá os sistemas da Microsoft ganharam fama e cresceram em conceito, cresceram a um ponto que o “Unix e o OS/2” que faziam parte do passado da MS se tornaram irrelevantes na visão de muitos.

Os paradigmas da História.

Só por nota, o GNU foi criado em 1984, um pouco antes do que eu chamei de “O Grande plano”, então se você é um dos que afirmam que Stallman teve a idéia da criação de um sistema operacional totalmente livre, por ódio à MS ou algo parecido, por favor, se acalme.

E em 1994, a Microsoft já havia sido processada por pressionar fabricantes de equipamentos a lançar seu produto apenas para sua plataforma operacional. Então se você é um daqueles não sabem por que tanta gente carrega ódio pela empresa, bem, já pode ter uma idéia.

Claro, não vou (e nem quero) falar sobre isso, mais são só dois exemplos, que ajudam entender todo um falatório desmedido espalhado internet a fora.

Desenvolvimento em DOS

O DOS, a grande aposta da MS, fornecia uma única ferramenta de desenvolvimento: O interpretador “BASIC”. E o desenvolvimento um pouco mais “profissional” era realizado com o Macro Assembler da Microsoft (MASM), que poderia ser adquirido separado, posteriormente versões futuras incluiriam melhorias, como o Quick Basic, seguido por compiladores e interpretadores de outras linguagens como dBase, Clipper, COBOL, Fortan, Pascal e o obviamente também o C.

Foi então que a Borland, uma empresa não muito conhecida na época, criou um conceito muito importante para a Informática no geral, a IDE(Integrated Development Environment) com o lançamento do Turbo Pascal, e a vantagem do uso de uma IDE é integrar um editor de programas, um compilador e um depurador em uma única interface orientada a menus.

Entretanto o desenvolvimento em DOS possuía muitas dificuldades, como: Limite de 640KiB de RAM, modelo de memória segmentado do 8086, aritmética de 16bits, ausência de mecanismos de proteção de memória, systemcalls primitivas e a falta de bibliotecas padronizadas. Assim, as ferramentas de desenvolvimento foram sendo expandidas para fornecer todas as bibliotecas e componentes necessários á criação de aplicações “reais”, de modo que programas escritos em uma IDE não poderiam ser compilados em outra.

Desenvolvimento em Windows.

Como disse acima, o Windows era só um tipo de interface gráfica bidimensional para o DOS, e não havia conquistado muito espaço no mercado, até porque nessa época (1985), a computação era quase que exclusivamente direcionada às empresas, e muitas vezes um “shell” não trazia nenhuma vantagem técnica para as mesmas. Porém com o surgimento do Windows 3.0 (1990), foi incorporando uma quantidade suficiente de recursos para atrair usuários e desenvolvedores, eliminaram o limite de 640KiB, criaram um conjunto mais rico de systemcalls e bibliotecas padronizadas para gráficos, multimídia e impressão, facilitando o desenvolvimento de aplicações para o usuário final.

Foi então que uma nova ferramenta surgiu: o Visual Basic. Antes dele o desenvolvimento para Windows utilizava as mesmas ferramentas do MS-DOS, freqüentemente associados ao DOS-Extenders para utilizar mais memória RAM e como as bibliotecas padrão do Windows eram de baixo nível, de modo que um programa simples necessitava de centenas de linhas de código, o VB incorporou bibliotecas de nível mais alto, também um desenhador visual interativo de formulários, automatizando a geração de códigos para a interface gráfica.

O Windows só se tornou popular o suficiente para justificar a criação de IDEs visuais depois que houve uma massa critica de aplicações de produtividade pessoal, como editores de planilha, que era um dos pontos fracos do Unix e OS/2.

Nasce um novo pilar: Windows NT.

O Windows NT, e seus sucessores, foi um sistema operacional totalmente novo, não uma extensão para o DOS como o 3.x, 95,98 e ME, focado no mercado corporativo. Tornou o desenvolvimento em Windows ainda mais fácil ao incorporar novos systemcalls, além de abandonar o modelo de memória segmentado do 8086 e 80286.

Com a expansão da quantidade de systemcalls do Windows, e o surgimento de outros IDEs visuais, fez-se necessário um mecanismo melhor para a construção de bibliotecas de componentes. Assim, a Microsoft definiu os OLE Controls, (OCX) para substituir o VBX e suportar vários IDEs da empresa.

Porém o OLE Controls teve sua definição em baixo nível, gerando o chamado DLL Hell.

A Cultura Windows

Como o SO fornecia apenas componentes de baixo nível e nenhuma ferramenta de apoio ao desenvolvimento, os IDEs tornaram-se “inchados” e incompatíveis entre sí. Lembrando, que mesmo os IDEs da Microsoft deviam ser adquiridos separadamente do sistema.

Os problemas gerados pelo DLL Hell, digo, padrão OCX fizeram com que cada IDE fornecesse suas próprias bibliotecas de componentes, aproveitando quase nada do know-how dos programas ao mudar de IDE. E muito pior, uma nova versão de uma IDE era freqüentemente incompatível com aplicações desenvolvidas com versões anteriores do mesmo IDE.

Renasce um titã.

O sistema Unix, por sua vez, mestre dos mestres, a principio já fornecia desde sempre varias systemcalls, bibliotecas padronizadas de alto nível e vários utilitários de apoio ao desenvolvimento.

O desenvolvimento em Unix era basicamente feito em C, e como o desenvolvimento do próprio SO era baseado em C, e não em assembler como o DOS e o Windows, naturalmente as bibliotecas eram de utilização mais fácil pelos programadores.

As bibliotecas gráficas do Unix, baseadas no X Windows System, não eram de baixo nível como as bibliotecas do Windows, de modo que era viável criar aplicações sem construtores visuais de formulários. Infelizmente não havia um único padrão de Toolkit devido às disputas entre os grandes fornecedores de sistemas Unix.

Foi então, que nasceu o Linux, a partir da necessidade de um clone do Unix compatível com PCs padrão, e da tentativa da AT&T em bloquear o acesso gratuito do UNIX nas universidades. E claro, ele não veio para ser um “Windows Killer” como muitos teimam em afirmar.

Focado em ambientes multiusuários e servidores de rede, para usuários de elevado nível técnico, o Linux, dentro do grau de especialização e demandas mais rígidas de confiabilidade de servidores, bibliotecas e ferramentas de apoio se tornaram mais importantes do que IDEs visuais, além de que, a necessidade de suportar múltiplas plataformas de hardware dificultava a construção de ferramentas visuais.

Foi ai que o Linux e o GNU se encontraram, o Linux entrou como kernel para aquele sistema operacional iniciado em 1984, que já estava pronto, porém “só faltava” o kernel. Assim, um conjunto de ferramentas de desenvolvimento GNU, como editores de programas, compilador (GCC), depuradores, bibliotecas, foram incorporados ao Linux. E por rodar em computadores baratos, rapidamente gerou demanda para aplicações voltadas ao usuário final.

Desenvolvimento Windows

Desenvolvimento Linux

IDEs Monolíticos, que tem que realizar todas as tarefas, e integrar todos os componentes.

IDEs leves, que atuam como ponto de integração para softwares de terceiros, acrescendo em produtividade. É papel do sistema prover os recursos (bibliotecas, etc..) para o programa.

Aplicações “amarradas” ao IDE.

Aplicações “amarradas” somente ao Linux (ou nem em isso).

Foco em assistentes e em “não precisa ser um programador”

Foco em automação e em “saber o que se está fazendo”

Pacotes integrados

Integrar programas de origens diferentes

Dependência do fornecedor

Escolha (e mudança) do fornecedor

Instaladores autônomos e com todos os recursos necessários para rodar o programa.

O sistema se responsabiliza pela instalação e os recursos adicionais ficam por conta do administrador do sistema, ou do software de gerenciamento. Gerando às vezes os muitos “problemas de dependências” ao se instalar programas.

Como cada programa provê todos os recursos para “si”, os programas se tornaram inchados, e a cada versão costuma-se aumentar os requisitos de hardware do programa, mesmo com poucas melhoras significativas.

Os programas são leves e rápidos, e os requisitos de hardware costumam variar muito pouco, a não ser que seja implementado um número muito maior de funcionalidades do mesmo.

A fim de melhorar a desempenho dos programas, o próprio sistema se tornou “inchado” para incorporar diversas as características dos programas e tecnologias.

A performance dos programas é condicional ao próprio programa, e o sistema, assim como os programas tende a manter pouca variação de “tamanho”.

Por prover diversos recursos para diversas tecnologias, o desenvolvimento de novas ferramentas se tornou mais fácil e rápido.

Pelas dificuldades de implementação de novas tecnologias e por acordos comerciais com a Microsoft, o desenvolvimento, apesar de rápido e eficiente não foi desenvolvido muitas ferramentas para o sistema pelas grandes fabricantes de software.

Aliado ao alto preço do sistema, problemas relacionados a licenciamento de software, e segurança, se fez necessário a busca de uma alternativa para projetos em longo prazo.

Aliado a crescente insatisfação com o Windows, e pelas facilidades dos licenciamentos dos softwares do sistema, surgiu um numero grande de desenvolvedores garantindo a viabilidade para o suporte do sistema para projetos de longo prazo

 

Muito pode ser citado nessa tabela, porém é importante ressaltar que a decisão da plataforma para o desenvolvimento de aplicações deve ser feita de forma minuciosa, de modo que seja possível aproveitar o máximo das “qualidades” de cada sistema, a fim de viabilizar “ao máximo” todo o escopo do projeto em sí.

Publico alvo, também é um fator de extrema importância, mais também devem ser consideradas as previsões de curto ou longo prazo para esse tipo de situação.

Outra coisa interessante de salientar é que pela facilidade de personalização do sistema Linux, muitos projetos estão surgindo junto ao sistema como uma aplicação paralela ao sistema Windows, por exemplo, o Gparted usa um Live CD em Linux capaz de oferecer diretamente todos os recursos de seu programa independente da plataforma principal do PC, podendo então ser um concorrente direto de um aplicativo nativo ao Windows (Partition Magic), e também considerar como “publico alvo” essa plataforma. Claro de modo geral desconsiderei as noções de programas multiplataforma, que entram em um escopo diferenciado nesse tipo de analise.

Na próxima parte do artigo, falarei um pouco mais sobre as ferramentas de desenvolvimento do Linux, com alguns exemplos práticos, e também sobre outras vantagens e desvantagens de desenvolver para essa plataforma.

 

Fonte: Wikipedia e Lozano

emAnálise Android e Linux Artigo Produtividade Software

Phalanger: Silverlight e PHP.Net

Por em 5 de março de 2008

Para quem ainda não sabe, o Phalanger é o projeto semelhante ao IronPython e IronRuby: compilar o código escrito em PHP para o .Net Framework. Com isso é possível escrever código em PHP capaz de criar Silverlight, inclusive para o Mono, acessar a vasta biblioteca de classes do .Net e de quebra obter todas as vantagens do compilador JIT.

Pode-se misturar o dinamismo de páginas de PHP, na camada de apresentação e o C# na camada de negócios, onde código mais robusto, no sentido de orientação a objetos restritiva, bibliotecas de validação de classes, logging, tracing, debugging, diagnóstico de performance, tratamento de exceções, segurança e parametrização de dados e várias outras bibliotecas da Enterprise Library estão disponíveis.

E o mais interessante disso é que o PHP pode ser usado para criar aplicativos ricos em Silverlight, assim como qualquer outra linguagem disponível para .Net. Isso livra as aplicações ricas e vídeo de alta resolução das amarras de se escrever código usando Flash/Flex totalmente baseado em ActionScript, uma versão modificada do ECMAScript.

Achei alguns tutoriais interessantes na web e gostaria de saber se algum especialista em PHP já tentou instalar/usar o Phalanger. Alguma dificuldade ou observação que possa ser compartilhada?

Recomendo esse excelente artigo/tutorial Writing Silverlight applications in PHP. Há também um vídeo-tutorial, com código-fonte disponível no Channel9: Delivering Parameterized Silverlight Content with PHP. Veja um exemplo de código do Phalanger:

// Called when user clicks on the car
function OnClick() {
global $cv;
// Start the animation declared in XAML
$cv->moveCar->Begin();
}

O outro projeto no mesmo link é um jogo simples, o da foto abaixo. Para vê-lo, basta clicar na imagem. Download do código.

Ou seja, não pense que o PHP será substituído tão cedo pelo Ruby On Rails. Já existem vagas no mercado para quem trabalha com PHP e .Net, algo inimaginável há alguns anos.

emSoftware

Editor Rich Text Peso Pena

Por em 5 de março de 2008

Fazia muito tempo que eu tinha em algum canto escondido dos meus favoritos a URL de um excelente software chamado NicEdit.

Trata-se de um editor do tipo “rich text” (aqueles que criam a possibilidade de formatação dos textos em formulários na Internet, ao invés de apenas texto puro, gerando código HTML para a formatação), assim como existem muitos, mas com dois diferenciais importantíssimos.

O primeiro é o tamanho do editor: 33kB no formato “legível”, e cerca de 10kB no formato comprimido! Se compararmos esses números ao de outros editores mais famosos, que arrancam de 100kB, chegando a 200kB ou mais.

Não é nem preciso ser gênio para deduzir que código menor e mais rápido costuma representar uma melhor experiência para o usuário, que vai ter de esperar menos para ver o resultado daquilo que ele espera.

O segundo importante diferencial é o fato de que não precisa nem ter muito trabalho para fazer uma text-area comum do HTML virar um editor cheio de recursos: basta acrescentar umas poucas linhas de código à página, e a mágica está feita.

<script src="http://js.nicedit.com/nicEdit.js" type="text/javascript"></script>


<script type="text/javascript">


bkLib.onDomLoaded(nicEditors.allTextAreas);


</script>

O resultado disso é simplesmente que toda e qualquer text-area que houver na página vai virar um editor de texto formatado, cheio de recursos.

Como é possível perceber pelo código acima (que é provido pelos autores do script), quem não quiser nem precisa instalar nada no seu servidor, eles permitem fazer hotlinking do script e das imagens, o que facilita muito a manutenção da página. Mas quem não quiser correr riscos pode baixar o script completo e fazer o que quiser com ele.

No site do NicEdit tem diversos exemplos funcionais e os respectivos códigos, com opções mais avançadas.

emDicas Download Internet Web 2.0

25 milhões de músicas gratuitas? Ainda não.

Por em 5 de março de 2008

Alguém se lembra da Qtrax? Sim, é aquela empresa fuleira que anunciou que iria disponibilizar gratuitamente 25 milhões de músicas via P2P e necas. Foi o fiasco do mês de janeiro. Todo mundo que ficou sabendo da notícia baixou o tal do software, que nada mais era que uma versão modificada Songbird, um player open source simpatiquinho mas ainda instável, mas não baixou absolutamente nada.

Pois a mesma Qtrax anunciou que fechou acordos com EMI Publishing, Sony / ATV Music Publishing e TVT Records. Um grande passo, não? Marromeno: só a TVT terá músicas disponíveis para download, o acordo com as outras abrange somente direitos de publicação, o que não permite à Qtrax oferecer as músicas para download, mas são acordos necessários para os trâmites legais e tudo o mais.

Como se pode perceber, nada mudou na prática. Mas vamos esperar que a Qtrax “se ajeite”, faça todos os acordos que tem de fazer e finalmente disponibilize o acervo prometido de 25 milhões de faixas na faixa*.

Fonte: Engadget

*Isso não é uma redundância, é um trocadilho idiota proposital.

emIndústria

Se a Microsoft vendesse carros… ops, ela vende.

Por em 5 de março de 2008



Nós fizemos uma matéria falando do sistema Blue &amp; Me, desenvolvido pela Fiat / Microsoft, integrando telefone, rádio, etc, com comandos de voz. Nos EUA a Microsoft tem, com a Ford, um sistema bem mais avançado, conhecido como SYNC. E sim, é compatível com iPods, além de Zunes.

Agora a Ford divulgou seus números de vendas, onde se surpreenderam com um crescimento de 4% nas vendas do Focus, um dos veículos equipados com o SYNC, atribuindo isso à faixa de consumidores de 16 a 35 anos, que representa 28% dos compradores do Focus em 2007.

Nota: Embora seja o sonho de consumo do Ballmer, e seja um carro da Ford, o KITT não roda Windows. Nem Sync.

Fonte: Winding Road

emHardware Indústria

Olympus E-420

Por em 5 de março de 2008

Olympus E-420

 

A Olympus é uma das empresas do ramo fotográfico que gosta de inovar. Seja no design ou nos recursos de seus equipamentos, a empresa nunca apela para a solução mais simples e nem para a mais comum em seus produtos. Agora está chegando ao mercado uma câmera que vai agradar em cheio aos usuários que não gostam de equipamentos volumosos. A Olympus E-420 é uma DSLR de tamanho reduzido pensada justamente para quem leva a fotografia como um hobby prazeroso, mas não quer carregar 30 quilos de equipamentos e lentes.

A câmera tem dimensões de 129.5 x 91 x 53 mm e pesa apenas 380 gramas. Ela é equipada com um sensor CMOS de 10 megapixels de resolução máxima (sistema quatro terços), velocidade ISO de 100 a 1600, vários modos de imagem e White Balance e Face Detection. Fora as tecnologias de costume ela também é equipada com um sistema de limpeza do sensor através de vibração ultra-sônica, da tecnologia de Live View (que está presente em muitas câmeras hoje em dia, mas que foi invenção da Olympus) e da capacidade de controlar o flash externo através de tecnologia wireless. Um atrativo a mais para os brasileiros é a presença do português entre os idiomas do menu. Ah, sim! Ela também é bonita de doer.

Junto com a câmera também vai ser colocado a disposição dos usuários uma lente de 25mm f/2,8 (equivalente a uma 50mm no sistema 35mm) que deixa o equipamento mais compacto ainda. Olhando a foto do produto da vontade de levar para casa. O mais bacana disso tudo é o preço. A Olympus E-420 vai estar disponível no mês de Maio e vai custar U$ 499,99 (apenas o corpo), U$ 599,99 (com a lente ED 14-42mm f/3,5-5,6) e U$ 699,99 (com a ED 25mm f/2.8).

Dentre todos os lançamentos desse ano, esse foi o que mais gostei. Não por ser ultra moderno, mas por pensar no consumidor inicial ou naquele profissional que quer uma câmera para os momentos de folga e diversão.

Fonte: Dpreview

emFotografia

Softwares realmente caros

Por em 5 de março de 2008

Custo de software já é um assunto polêmico. Se por um lado temos pessoas que pagam R$ 860,00 pelo Vista, temos pessoas que não pagam R$ 10,00 pelo Ubuntu. Mas, além desse mundo de softwares para usuários finais, existe um outro, bem além, onde as cifras são inimagináveis para pessoas físicas: é o mundo do software corporativo.

leather_memory_wallet4AutoCAD? Delphi Architect? SQL Server Enteprise? Esqueça. Nem o Oracle chega a ser considerado um sistema caro, acredite. Mesmo levando em consideração que, dependendo do tipo da licença, ele pode custar entre 5.000 e 50.000 reais.

No mundo das empresas falamos de sistemas, e não de softwares, apesar de que do ponto de vista do algoritmo e do modus operandi os dois serem a mesma coisa.

Estes softwares são "baratos" porque sua demanda é alta. Consequentemente existe uma amortização grande já que o custo de replicação é zero. A situação se complica conforme a aplicabilidade do sistema se torna mais específica.

Quando você daria por um sistema de gerenciamento de telemedição? 20.000 reais? 40.000? Façamos o seguinte: fechamos em 50.000 e você pode levar a versão mais básica. Considere que o sistema é modular e que, dos 200 módulos de expansão disponíveis você leva… Nenhum.

Sistemas desse porte não são vendidos por menos de R$ 100.000,00, mas ainda esses são extremamente básicos.

Vamos cortar a ladainha e ir direto ao ponto: algumas semanas atrás eu preparei a venda de um sistema que será comercializado por… R$ 1.700.000,00 (hum milhão e setecentos mil reais). Não, eu não ganho comissão. E não, esse milhão e pouco não dá direito a uma caixinha colorida com um CD/DVD prensado dentro. Mas por outro lado, iremos a qualquer lugar do Brasil (ou da América Latina) instalá-lo para você.

A parte mais interessante é que, colocando um sistema desse nível lado-a-lado com um Paint da vida, a interface gráfica parece coisa de Windows 3.1 ou GTK 1.0. O desenvolvimento é voltado para aplicações críticas e um dia de downtime pode significar quatro vezes mais que o custo do sistema em si.

Esqueça o Vista.  Quando falamos de softwares realmente caros não nos referimos a nada cujo preço não precise ser informado pessoalmente.

emIndústria Software