Rodrigo Assad

Rodrigo Assad

Tendências em Tecnologia

Perfil: Consultor Senior, especialista em novas tecnologias e segurança.

Os Blogs Parceiros e Colunistas do Portal LeiaJa.com são formados por autores convidados pelo domínio notável das mais diversas áreas de conhecimento. Todos as publicações são de inteira responsabilidade de seus autores, da mesma forma que os comentários feitos pelos internautas.

De quem são as nossas informações

Rodrigo Assadter, 15/11/2011 - 12:24

Há muito tempo empresas como o Google, Facebook, Yahoo e etc tem suas ações valorizadas cada vez mais. Porém há uma questão intrigante, como elas são lucrativas,  mantendo infra-estruturas com centenas de milhares de computadores ao redor do mundo e com milhares de funcionários se o serviço em sua maioria é gratuito.

A resposta é: este faturamento vem de propagandas colocadas em suas paginas. E pelo que se sabe, realmente é isso, porém o que esta resposta não deixa claro é como essas propagandas são exibidas em nossa tela. Ai vem à grande questão!

Imagine o seguinte cenário: O Diretor de uma nova empresa Brasileira de panificação queira fazer propaganda usando o Google ou o Facebook. Ele não ficaria feliz de saber que a sua propaganda foi exibida uniformemente ao redor do mundo para os usuários Google ou Facebook. O seu negócio existe apenas no Brasil, para que mostrar uma propaganda desta nova empresa para usuários do Google ou Facebook em outros lugares que não apenas no Brasil?

Porém a questão é mais complicada do que apenas saber geograficamente onde os usuários estão, por exemplo, o Google, sabe os nossos gostos mantendo um histórico do que procuramos no site, para quem tem Gmail ele lê o conteudoi dos nossos mails para saber o que recebemos e enviamos, para quem tem Google Docs, pelos documentos salvos, ou seja, o serviço que nos é ofertado é de graça, porém o Google, sabendo do nosso perfil, pode ser mais assertivo na oferta de propagandas para seus clientes. Ou seja, o Google sabe responder a seguinte pergunta: Onde se procura mais sobre determinado assunto? Isso vale ouro. Para os que não conhecem o Google tem o serviço do Google Trends que mostra um pouco desta capacidade.

Já no modelo do Facebook, das redes sociais, a coisa é mais assertiva ainda. O Facebook sabe o que nos gostamos, não por pesquisas feitas, mas porque simplesmente dizemos,  ou nossos amigos respondem perguntas o tempo todo sobre nós.

Este problema ainda pode ser maior se imaginarmos cenários mais ousados como, por exemplo, as empresas de telefonia e provedores de acesso, monitorarem o que fazemos capturando todo nosso trafego quando navegamos na internet.  Imaginem o valor destas informações!!!

Estas questões estão chamando cada vez mais a atenção das pessoas,e já existe ate um termo para isso, privacy aware, que aos poucos começa a se difundir. Provavelmente este será um dos problemas do futuro.

Poucos jovens entendem que o que se escreve hoje fica salvo e que no futuro é bem possível que alguém ache alguma coisa feita, que não mais representa a sua personalidade, porém que ficou salva em algum repositório na internet.

O ideal é que no futuro,  nos possamos controlar quem tem acesso aos nossos dados, deveríamos ser capazes de escolher se um site/portal deve der acesso aos nossos dados e mais ainda caso queiramos seja possível apagar tudo que já fizemos. OU seja, a informação é nossa e nos controlamos ela.


A Web 3.0 como uma nova plataforma de negócios

Rodrigo Assadqui, 10/11/2011 - 14:38

Recentemente eu li uma notícia que tratava do serviço de mapas do Google, o Google Maps. Lá falava-se que o serviço estava ficando popular demais para continuar gratuito.
Popular demais, neste caso, significa dizer que ele está consumindo muitos recursos fundamentais do Google (leia-se seus servidores) e, obviamente, custando alguns bons dólares (milhares?) aos cofres da gigante de busca.

Recursos estes que podemos tratar por armazenamento de dados para o serviço, armazenamento de dados dos usuários e suas ações junto ao serviço, poder computacional de processador, para executar todas as ações, para poder dar suporte a uma quantidade enorme de usuários e aplicações acessando/consumindo este serviço ao mesmo tempo em uma escala de milhões de acessos por dia.

Todos sabemos da política “eternamente grátis” do modelo de negócios (em destaque, porque falaremos disso mais a frente) do Google. Todos os seus serviços são gratuitos, basta se cadastrar, ter seu usuário e pronto, comece a usar tudo na nuvem. Gmail, Google Docs, Google Maps, GTalk... mas como já foi dito aqui, todo e qualquer serviço (que por natureza é um software) consome recursos computacionais diversos. E estes recursos, por sua vez, demandam custos. Desde custos de manutenção, aquisição, evolução (que são custos diretos) a custos de locação de espaço (para os datacenters) bem como a conta de energia elétrica para manter tudo ligado e, principalmente, resfriado.

Alguns rumores dão conta que a partir do dia primeiro de janeiro de 2012, desenvolvedores serão cobrados quando seus apicativos acessarem a API do Google Maps mais de 25 mil vezes em um dia e que  a taxa cobrada seria de cerca de US$4,00 a cada mil acessos  após os 25 mil.

Se o valor da taxa sera esse, ainda não sabemos, mas o certo é que essa mudança  vai mesmo acontecer. Ter que cobrar as pessoas, mesmo que seja uma média de 0,35% dos usuários, segundo o Google relatou à BBC, é uma forma de assumir que o modelo do Maps tem problemas, ou que pelo menos ele não tem a eficiência em termos de escala. E para um serviço tão popular quanto o Google Maps, isso pode se tornar algo mais perigoso no futuro (BBC via BGR).

O que nos leva a uma importante pergunta: a mudança da plataforma da web, para uma instânica programável, que é possível desenvolver e disponibilizar novos produtos (serviceos) por meio da composição de produtos/serviços de terceiros necessita de uma quebra nos paradigmas também dos modelos de negócio, adotados até hoje?

E qual seria este modelo? Ou mais ainda, como chegar no valor final a ser cobrado? Como foi que o Google chegou nos 4 dólares (se é que são 4 mesmo e não 3,75 ou 5,25)? O que ele leva em consideração? O que é aferido e mais ainda como é aferido?

Um pote de ouro espera por quem sabe como dar estas respostas.

E mais uma informação para reflexão: O jogo Angry Birds, da Rovio, ultrapassou a marca de 500 milhões de downloads, que é um feito memorável mesmo para o jogo mais popular em dispositivos móveis. Dados da empresa afirmam que os usuários passam nele 300 milhões de minutos por dia! E, para informação, ele é um produto (serviceo de entretenimento?) gratuito nos dispositivos android, por exemplo.

Qual o modelo de negócio de Angry Birds? Não é só propaganda embutida. Hoje tem os royalties por uma série de produtos alternativos (de bichos de pelúcia a capas de travesseiro), mas tem muito mais por trás. Rumores dão conta que a Disney estaria fortemente interessada na construção de atrações temáticas dos famosos passarinhos…

Vinicius  Artigo escrito por Vinicius Cardoso Garcia - @vinicius3w

 


A copa do mundo não é missão de um “homem só”

Rodrigo Assadsab, 29/10/2011 - 11:40
Divulgação

Basicamente quando se fala em copa do mundo se escuta duas coisas: que os aeroportos serão um grande problema, que os governadores (qualquer que seja ele) estão com as obras dos estádios atrasadas e o trânsito e o transporte público precisam ser resolvidos.

O que não se escuta falar é que na cartilha da Fifa, para a copa do mundo, estes são apenas alguns dos problemas. Como esta coluna fala de Tecnologia, é necessário se analisar os aspectos tecnológicos associados a cartilha e que são fundamentais para que a copa aconteça. Antes de mais nada, é importante colocar que os prazos para boa parte estar operacional não é 2014 mas sim 2013, pois esta é a data da Copa das Confederações.

Falando de tecnologia, se engana, quem acha que o principal problema será a banda larga 3G, esse problema é tão obvio que se as operadoras não fizerem nada será uma prova de incompetência de quem está a frente deste processo.

O problema que ainda não ganhou fama na mídia são os inúmeros sistemas de suporte ao turista, torcedor e cidadão, que irá ver os jogos nos estádios e que precisam estar funcionando a qualquer custo, ou seja, ter um plano de continuidade.

Ao redor das arenas da copa os sistemas da Polícia Civil, Polícia Militar, Bombeiros, Ministério Público, Secretaria de Saúde e tantos outros precisam estar operacionais. Ai vem à pergunta, quem esta cuidando deste problema? Não podemos deixar isso na conta do governador, ele deve atuar nas grandes questões, como as descritas acima. O que os departamentos de TI estão fazendo? Nos bastidores se houve de tudo, desde que Romário está certo e a mão divina irá atuar fazendo com que todos os sistemas de TIC necessários fiquem operacionais, até que será construído um CPD enorme em Brasília que terá uma cópia de todos os sistemas. Enfim, qualquer um dos dois cenários é hipotético e difícil concretização ate 2013.

Porém esta é apenas a visão governamental da coisa. Claro que ela é importante, mas o que esquecemos é que com uma copa do mundo acontecendo no Brasil nós teremos todas as mídias do mundo apontadas para nós. Isso significa que boa parte dos hackers, sejam eles pertencentes a governos ou a grupos isolados, também estarão olhando para nós. Ai vem à pergunta capital: o que sua empresa esta fazendo, HOJE, para se proteger dos ataques que virão, NO FUTURO?  Estados que terão jogos de países em conflitos políticos provavelmente serão alvos, terão seus órgãos, empresas, etc, como alvos de grupos de ideologias contrárias. Portais, jornais, empresas que estão envolvidas também devem ser alvos, porque simplesmente isso dá fama e certa notoriedade para quem conseguir.

Em resumo, a Copa do Mundo, não é um problema do governador do seu estado, mas um problema dos seus secretários, departamentos de TI destas secretarias, de qualquer um que tenha uma página na Internet e que potencialmente seja um alvo.  Definitivamente não é um problema de um “homem só”, mas um problema nosso, para ser um sucesso, todos nós devemos fazer a nossa parte.


Venha a nós o vosso conhecimento

Vinicius Cardoso Garciaqua, 19/10/2011 - 09:23
Internet

Aproveitando que neste dia 18/10 tivemos o encerramento do período do Edital de Seleção de Mestrado e Doutorado 2012 do Programa de Pós-Graduação do CIn-UFPE, conflitos de interesse entre alunos e professores, ou melhor, orientandos e orientadores ressurgem.

É fato que estamos enfrentando uma era de mudanças intelectuais muito fortes em relação aos métodos, processos e tecnologias educacionais e educativas. E sempre me encontro em debates com diversos alunos, professores, profissionais da indústria, empresários e demais interessados no assunto sobre qual o papel do aluno e do professor na escola/universidade nos dias de hoje.

Este artigo é uma republicação de um post em um blog e que gerou muita reflexão.

Bem, desde que mergulhei de cabeça na profissão de professor universitário, eu tenho me surpreendido com muitas coisas.

Exemplos positivos não faltam. Já vi muito aluno que tinha tudo para se perder pelos caminhos da vida, e escolheu seguir um caminho nobre. Minha experiência no projeto NAVE (Facebook page) me colocou frente a uma série de pessoas muito especiais e com muita força de vontade, e que até hoje me surpreendem com ótimas notícias e feitos alcançados.

Infelizmente, de maneira quase que monumental, as surpresas negativas também me surpreendem… ainda mais após a oportunidade de trabalhar no NAVE. Para quem não conhece ou nunca ouviu falar, NAVE (Núcleo Avançado em Educação), abro um parêntese para falar sobre ele. NAVE é um projeto do Instituto Oi Futuro que tem como um dos parceiros o CESAR, na vertical de desenvolvimento de jogos digitais. O NAVE existe no Rio de Janeiro e em Recife, e roda em parceria também com as secretarias de educação deste estados. Isto significa que o projeto acontece em escolas públicas. No Rio é no Colégio Estadual José Leite Lopes (na Tijuca) e em Recife o Centro de Ensino Experimental Cícero Dias (em Boa Viagem). Passe lá e faça uma visita e assim como eu, se espante e sinta uma inveja por sua escola não ter sido assim! Fecha parênteses.

Mas o que o NAVE e seus alunos tem a ver com esse artigo? Tem tudo a ver… principalmente pelo título desse artigo.

Umas das principais preocupações no NAVE era de formar cidadãos e profissionais capacitados para o mercado. Um mercado mutável a tal ponto, que todo ano temos que avaliar o que aconteceu no curso em si, o que temos a melhorar o que tem de novo (na literatura e no mercado) que merece ser abordado. E nós conseguimos fazer isso incutindo nos educandos a importância da pró-atividade no processo de aprendizagem… ou seja, não basta o conhecimento chegar até você, é mandatório que você busque o conhecimento também!

O que quero dizer com isso? Que não basta ter um professor/tutor/blog que procura te ensinar alguma coisa como, por exemplo, Cultura de Jogos Digitais e você ir tentar aprender esse troço porque alguém comentou que era legal ou porque está no seu currículo escolar. É importante que você entenda a importância dos tópicos tratados no ecossistema do curso ou mais ainda na sua área de formação!

O mesmo se aplica a qualquer outra disciplina de computação como [if969] Agoritmos e Estrutura de Dados ou Paradigmas de Linguagens de Programação.

E aí voltamos ao papo que me assusta…. A passividade dos estudantes de computação. É impressionante como cada vez mais me deparo com estudantes, experientes no mercado (algumas vezes), de pós-graduação e muitas vezes até com excelentes notas e que são completamente passivos!

A primeira coisa que aprendi na minha vida de graduando é que nota não quer dizer literalmente nada! Pra mim, o paradigma de provas e notas está falido, na minha humilde opinião… é desestimulante e muito trabalhoso para todas as partes envolvidas… e o que é pior, não é divertido! E este processo se torna pior pela passividade dos estudantes.

O perfil padrão dos estudantes hoje é: o que eu preciso estudar/decorar para passar nessa disciplina. Meu amigo, se você é estudante e está lendo isso, e essa é a sua postura, saiba que você está errado… e muito errado! Eu sei que existem disciplinas que hoje podem até não fazer sentido para o que você faz ou pretende fazer, mas saiba que ela faz sentido sim no seu ecossistema. Tenha certeza absoluta que Física tem tudo a ver com desenvolvimento de jogos digitais! Algoritmos de ordenação tem tudo a ver com sistemas de informação! E os exemplos não param.

Não fique esperando que professor apareça na aula com 87 slides com TUDO que você precisa ler/ver sobre o tópico da aula… os slides são ponteiros… e o professor não é uma enciclopédia.. ele é um pastor, para te guiar no caminho do aprendizado… ele não sabe tudo de tudo, mas sabe a direção que você deve seguir.

Essa abordagem de “não vou estudar Scala porque não cai na prova de nenhuma disciplina” e “eu queria fazer alguma aplicação para rodar na nuvem e ganhar dinheiro com isso” não combina! Não estude só o que o professor diz que vai cair na prova… estude tudo o que estiver acontecendo ao seu lado ou do outro lado do mundo… conhecimento é uma coisa que ninguém tira de você, e quanto mais você sabe, mais você vale (desde que saiba usar tudo isso de maneira eficiente). Esqueça por um momento essa discussão de reserva de mercado por meio de seja lá o que for (regulamentação da profissão, lei da mordaça, regime ditatorial dos profissionais de TI, etc etc etc). O que vai garantir seu espaço no mercado, seja ele qual for, é a sua raridade em relação ao mercado. Se você faz a mesma coisa que 100k pessoas, porque você merece um aumento? Ou ainda, porque VOCÊ merece estar no mercado!?

Agora… pior do que o estudante que só estuda/decora o que vai cair na prova, é o estudante de mestrado/doutorado que fica na dependência do orientador sentar com ele, e dizer exatamente, tim-tim por tim-tim o que ele vai fazer. Um candidato a mestre/doutor, pelo menos em Ciência da Computação, deve ser capaz de tomar decisões e ser auto-gerenciável. A procrastinação é um problema com o qual estes candidatos devem conviver/lutar durante todo o seu período de incubação… ate o dia da defesa. E não é fácil. Mas pior do que a procrastinação, é o complexo de TCC que ataca muitos deles. Complexo de TCC é essa passividade que ataca estas pessoas que muitas vezes são altamente competentes e capazes, mas que tem preguiça de pensar e de agir, e fica na expectativa se fazer qualquer coisa perto do final da sua pós, contando com o bom coração do orientador para que o seu “trabalho” seja empurrado garganta abaixo de toda um ecossistema (banca, professores envolvidos, colegiado, programa da pós, etc) ou o que é pior… pensar que seu orientador vai sentar e fazer parte do seu trabalho.

Tudo isso acontece, na minha opinião, pela facilidade com que essa geração digital consegue as coisas… o reuso de conhecimento (e de artefatos de conhecimento, vamos chamar assim) aconteceu durante toda a vida educacional de muitos destes estudantes… o famoso copy/paste foi usado indiscriminadamente durante trabalhos e trabalhos, corrompendo o processo de aprendizado desse povo.

Mas não se desespere, ainda há salvação. Basta mudar uma coisinha simples na sua vida. Saia da passividade! Coloque como meta, semestral que seja, aprender alguma coisa que você não vai ver na sala de aula. Não foque em ferramentas… ferramentas vão e vem. Procure por coisas mais sólidas! Não basta aprender Scala (citada lá em cima), aprenda (ou re-aprenda) o paradigma funcional de programação! Não aprenda a simplesmente usar um banco de dados NoSQL, mas saiba o conceito por detrás e quais são os cenários onde isso se enquadra. Saia do marasmo! Não é simples… mas uma vez que você dê o primeiro passo, tudo se torna mais fácil e divertido. O retorno é garantido.

Além disso, existem muitas pessoas trabalhando em abordagens para facilitar esse tipo de processo de aprendizagem contínuo. Uma das que eu mais gosto é a Gamification, que visa aplicar o conceito de games em cenários “non-game” para aumentar o compromisso e lealdade da audiência no assunto tratado, e principalmente a diversão!

 

        Artigo escrito por Vinicius Cardoso Garcia - @vinicius3w


TV Digital ou já deveríamos estar em TV-Conectada e IP-TV

Rodrigo Assadseg, 17/10/2011 - 14:31

Recentemente em um debate muitas pessoas se perguntavam sobre o sucesso da Tv-Digital Brasileira onde, teoricamente, em 2016 toda transmissão deveria ser digital “A transmissão analógica continuará ocorrendo, simultaneamente à digital, por um período de 10 anos até 29/06/2016. A partir de Jul/2013 somente serão outorgados canais para a transmissão em tecnologia digital." No entanto, apesar de já termos canais em alta definição, o conteúdo gerado não é 100% digital, ou seja, muda, mas não muda muito. Além disso, os benefícios da interatividade não são vistos, ou como muitos falam, não aconteceu e nem da sinais de acontecer tão cedo.

Aprofundando mais a questão da interatividade, é importante esclarecer como este processo se deu. Para TV aberta já existiam três padrões quando o Brasil decidiu começar a definir a sua estratégia, são eles: Europeu, Americano e Japonês. No caso Brasileiro, decidimos definir o nosso, que atenderia as necessidades da nossa região e cultura, trazendo a reboque os países latino-americanos que possuem as mesmas características geopolíticas, econômicas  e culturais que nós.

Assim foi criado o Ginga, que seria o middleware Brasileiro para Tv-Digital. Ele seria ao mesmo tempo um middleware procedural (que executa programas, no nosso caso Java) ou interpretado, como as paginas HTML geradas aqui pelo portal LeiaJa.com, e neste caso utilizamos NCL.

O que esquecemos é que estas escolhas não são apenas tecnológicas, elas são escolhas da indústria e dos seus usuários. Em resumo, temos um excelente padrão para TV-Digital, mas que encontra resistência de diversos setores, desde os produtores de conteúdos até os fabricantes.

Paralelamente a este movimento, temos o surgimento de novas formas de produzir ou acessar conteúdos disponibilizados pela TV. Inicialmente surgiu IP-TV, ou seja, transmissão do conteúdo da TV através da do sistema de banda larga e utilizando o protocolo IP, neste caso, as operadoras de telefonia poderiam comercializar canais de TV nos seus pacotes. Isso ficou parado no congresso, pois se precisa de autorização para realizar transmissão de TV e em uma resolução recente no congresso esta autorização passou. Porém mais uma vez com atrasado!!!

Atualmente se fala em TV-Conectada ou seja, quem comercializa o conteúdo pode ser qualquer um, veja os casos: Net-Flix,Yahoo,  Google-TV, AppleTV, o sistema de banda larga é só o meio para acessar o conteúdo e as operadoras deixariam de ter o controle. Eu me arriscaria a dizer que este seria um possível novo passo de Steve Jobs.

Em resumo, o governo Brasileiro está padronizando, sem muito sucesso, um sistema de transmissão que está ao menos duas gerações atrás do que o resto do mundo está fazendo e sem uma implementação utilizada em larga escala do middleware que permite a interatividade. O que não vimos é que o mercado já decidiu o que irá fazer. A TV virá via Internet e a interatividade já esta implantada.


Steve Jobs e seu legado

Rodrigo Assadter, 11/10/2011 - 09:19

Na semana que se passou, um dos grandes fatos ou talvez o maior fato ocorrido, foi a morte de Steve Jobs. Jobs é visto como um dos revolucionários da área de tecnologia da informação, outros o vêem como o messias, outros como um gênio e etc, na verdade cada um o enxerga de uma maneira, Jobs possuía vários perfis, e ele sabia utilizar adequadamente dependendo do momento.

Um pouco do começo da sua carreira esta contado no filme piratas do vale do silício . O trailer esta disponível logo abaixo:

 

 

Capa do filme Piratas do Vale do Silicio

O filme retrata o começo da carreira de Jobs como empresário e um pouco do seu perfil como diretor (CEO) da Apple. Este mesmo perfil que anos depois veio a ser o motivo do seu afastamento da empresa que criou.

Anos mais tarde, com a Apple em uma fase ruim, Jobs volta ao comando. No entanto, dessa vez foi diferente e aqui começa a surgir o seu maior legado.

Um dos maiores legados de Jobs, talvez o mais importante, foi  ter sido um CEO que soube inovar ou melhor conduzir o processo de inovação. Quem sabe o melhor ate hoje! Há anos todos da área de TIC sabiam que celulares e PC´s viriam a convergir, basta ver o texto passado desta coluna. No entanto, Jobs soube arriscar e conduzir a Apple na tentativa mais bem sucedida de montagem de um sistema onde o fazer ligações é um detalhe, e para isso ele não foi um CEO tradicional, mas sim um CEO Inovador.

Não se podia esperar esta mudança de paradigma de uma operadora de telefonia com seus diretores preocupados com a maximização apenas dos lucros. O surgimento de um iPhone somente teria apoio de um CEO que conseguisse ver além de números, mas que compreendesse de tecnologia, tendências e fosse um perfeccionista no formato. Neste ponto, vem uma visão particular do colunista, não foi Steve Jobs o responsável pela tecnologia do iPhone, na verdade as pessoas que o idealizaram continuam na Apple e ela continuará criando, a morte de Jobs não significa o fim do processo criativo da Apple !!

Jobs pode ser visto como “o artista que deu o toque final” a obra, ele foi o comandante que teve coragem de arriscar milhões em idéias que na verdade eram tendências obvias, porém ninguém conseguia atingir. Para isso ele deixou o seu lado Nerd vivo.

Esse foi o grande ensinamento de Steve Jobs, ele mostrou ao mundo como ser inovador, criativo e montar uma empresa lucrativa e Bilionária que surpreendia o mundo a cada 1,5 anos com produtos inovadores. A morte de Steve Jobs deixa uma lacuna enorme para que CEO´s, que ainda não aprenderam a fórmula da inovação. É importante que eles reflitam e vejam como e possível inovar olhando tendências.

Sendo assim, os CEO´s que querem chegar lá olhem devem olhar hoje para o mundo convergente as tecnologias estão ai, bem como as tendências: TV Conectada, Casas inteligentes, Mobilidae e Cloud Computing, são algumas. O que falta é gente querendo arriscar como Jobs fez.


A convergência da convergência digital e a inovação

Rodrigo Assadter, 04/10/2011 - 11:25

Já há algum tempo algumas empresas tem pensado sobre as competências das empresas do futuro, e principalmente na procura do que pode considerado como o próximo passo iminente para a inovação. O que escutamos há uns 5 (ou mais) anos atrás VAI virar realidade em breve. Mas o que escutamos há 5 anos atrás:

a) “Tudo em nossa casa será INFORMATIZADO, TV, Geladeira, Microondas e etc”
b) “O mundo estará CONECTADO em alguma rede e isso será transparente.”
c) “Os sistemas irão se CONVERSAR de alguma maneira.“

Bom, mas porque IMINENTE e REALIDADE, porque o que faltava, a decisão do mercado e das empresas de pesquisa do modelo para isso. E pelo que se pode observar estas tecnologias chegaram e vão ficar. Para INFORMATIZAR sistemas é necessário que os dispositivos computacionais, que tenham menos recursos obtenham estes recursos de quem tem mais, isso seria GRID COMPUTING e CLOUD COMPUTING. Para isso é necessário uma plataforma OPERACIONAL, isso seria os sistemas operacionais, neste cenário dois se destacam LINUX e WINDOWS, pois atendem diversas plataformas, mas o foco hoje é: Embedded LINUX e WINDOWS (mobile), com as plataformas de desenvolvimento C, JAVA e .NET. Neste cenário temos o problema (a) direcionado.

Não adianta ter sistemas isolados, eles precisam estar CONECTADOS, sendo assim se recorre a idéia de UBIQUIDADE que no dicionário significa “adj. Que está em toda parte ao mesmo tempo; onipresente.” , ou seja, as redes serão ubíquas, mas como: simples .... algumas tecnologias nasceram com este DNA, são elas os protocolos wireless: Bluetooth, Wi-fi 802.11a.b.g.i, Wi-MAX, CDMA, GSM, DVB ....., endereçamos (b), se eles estão conectados eles precisam se CONVERSAR mas.... , mas nada, isso será via utilizando metadados que representam as informações, ou seja, em XML, isso nos leva a WEBSERVICES e REST, endereçamos (c).

Ai vem uma constatação, o que está escrito acima, são competências da maioria das nossas empresas. Na verdade a maioria das empresas já possui profissionais que conhecem disso tudo, nós já trabalhamos com isso!!! nós temos know-how nisso!!! e o melhor para algumas empresas existem bons cases e anos de experiência. Quando me dei conta disso, pude notar o seguinte: Se convergirmos a convergência tecnológica na nossa empresa pensando no futuro e traçarmos isso com um grande objetivo podemos imaginar que: “As Instituições prontas para o futuro são aquelas que irão virar um grande LABORATÓRIO para novas experiências, onde executamos projetos para fazer coisas que não conhecemos, mas que dominamos a tecnologia, o nosso desafio agora é saber FAZER INOVANDO porque sabemos os limites de cada tecnologia e temos condição de propor melhorias nela”.

Agora vem o SILOGISMO, SE for verdade o que esta escrito acima E que temos as competências para realizá-las ENTÃO a nossa empresa está pronta para vender competências em um contexto inter-tecnológicos para o futuro.


O fututo, do futuro profissional de tecnologia

Rodrigo Assadqui, 22/09/2011 - 08:45

Há muito tempo se vê discussões sobre a melhor formação para os profissionais de TIC. O que seria melhor: certificação, graduação, cursos tecnológicos ou especializações, MBA, mestrado, doutorado e etc? No entanto, uma abordagem mais centrada nas necessidades dos profissionais e nas tendências tecnológicas indica que o futuro profissional de TIC é um especialista-generalista. Mas o que seria isso? Observando-se as tendências tecnológicas atuais e as novas tecnologias lançadas pelas grandes empresas de TIC, observa-se que mobilidade associada à cloud computing na construção de aplicações Ubiquas e Pervasivas e algo que veio para ficar por muito tempo.

Fica claro que existe a necessidade de profissionais não apenas extremamente especializados em determinada áreas ou tecnologias, mas que além desta especialização, ele é capaz de conversar sobre outras áreas e assuntos com alguma profundidade.

Futuro Profissional

 

Analisando as palavras ubiqüidade e pervasividade, se tem a chave para o profissional de tecnologia do futuro. Escrever aplicações que sejam ubíquas e pervasivas, exige uma formação geral, conhecimentos de programação, engenharia de software, arquitetura de computadores, sistemas operacionais, protocolos de comunicação e principalmente lógica. Este último ponto, normalmente renegado quando se olha as grades de qualquer curso de formação listado anteriormente.

O profissional do futuro, é aquele que aprendeu a pensar, domina uma determinada área do conhecimento e sabe utilizar e associar os conhecimentos gerais de tecnologia para resolver seus problemas. Ele conhece a cadeia produtiva na qual esta inserido, por exemplo o ciclo de desenvolvimento de software ou operação dele sendo capar de identificar problemas relacionados a sua atividade através de uma visão sistêmica elaborada.

Acima de tudo o profissional do futuro deve saber que os processos e procedimentos estarão cada vez mais automatizados. Em resumo, um engenheiro de software deve conhecer de protocolos redes e sistemas operacionais, um administrador de sistemas que sabe programar.


Segurança em aplicações web a nova fronteira

Rodrigo Assadqui, 08/09/2011 - 15:07

Desde a popularização da internet através do seu uso comercial ocorrida durante a década de 90, os ataques aos sistemas computacionais se tornaram mais freqüentes. Inicialmente os ataques eram mais direcionados a sistemas operacionais e aos serviços de rede como se pode observar nas relações de tipos de ataques mais comuns de diversos institutos como CERT Internacional. No Brasil os primeiros relatos documentados pelo CRT.br datam do ano de 1997. Observando as estatísticas dos ataques ocorridos realmente se observa que eram mais direcionados para sistemas operacionais e serviços de rede.

Com o crescimento acelerado dos ataques, as empresas, governos, universidades investiram massivamente em soluções de segurança, tais como firewall, sistemas de detecção de intrusão, anti-virus, gerenciamento de patchs. Também houve investimento na definição de procedimentos e processos para o gerenciamento da segurança da informação, como ITIL, COBIT e SOX, também houve investimento e definição de legislações específicas para tratar os principais problemas, tanto no Brasil como em outros países.

Todas estas iniciativas, associadas ao tempo para o amadurecimento em relação a compreensão dos problemas e definição de padrões de segurança,  fez como que entre 1997 e 2007 o índice de ataques reportados relacionados a falhas de segurança em sistemas operacionais e redes de computadores tenham caído de forma significativa, como mostrado na Figura 1.

Analisando os dados acima apresentados, vemos que com a definição de procedimentos, amadurecimento sobre a compreensão dos problemas e evolução da tecnologia, houve uma significativa diminuição dos problemas de segurança relacionados a falhas e vulnerabilidades apontadas em sistemas operacionais e redes.

Neste sentido entende-se que houve uma melhoria na qualidade percebida e garantida, QA – Quality Assurance,  em relação aos serviços prestado pelos administradores de sistemas, consultores de segurança e engenheiros de segurança.

Figura 1 Ataques a sistemas operacionais e rede reportados pelo CERT.br

Figura 1 Ataques a sistemas operacionais e rede reportados pelo CERT.br

Este amadurecimento em relação aos trabalhos desenvolvidos pelas equipes responsáveis pela gestão da infra-estrutura teve como conseqüência a mudança no foco dos mesmos, as aplicações se tornaram o alvo principal.

É inegável que os problemas de segurança ainda persistem, no entanto, não estão somente  relacionados às falhas em sistemas operacionais ou serviços de rede, o que se observou é que o maior foco dos ataques mudou e atualmente esta nas aplicações web, como observado na Figura 4.

Figura 2

Figura 2 Ataques 2010 reportados ao Cert.br

“Legenda:

• dos (DoS -- Denial of Service): notificações de ataques de negação de serviço, onde o atacante utiliza um computador ou um conjunto de computadores para tirar de operação um serviço, computador ou rede.
• invasão: um ataque bem sucedido que resulte no acesso não autorizado a um computador ou rede.
• web: um caso particular de ataque visando especificamente o comprometimento de servidores Web ou desfigurações de páginas na Internet.
• scan: notificações de varreduras em redes de computadores, com o intuito de identificar quais computadores estão ativos e quais serviços estão sendo disponibilizados por eles. É amplamente utilizado por atacantes para identificar potenciais alvos, pois permite associar possíveis vulnerabilidades aos serviços habilitados em um computador.
• fraude: segundo Houaiss, é "qualquer ato ardiloso, enganoso, de má-fé, com intuito de lesar ou ludibriar outrem, ou de não cumprir determinado dever; logro". Esta categoria engloba as notificações de tentativas de fraudes, ou seja, de incidentes em que ocorre uma tentativa de obter vantagem.
• outros: notificações de incidentes que não se enquadram nas categorias anteriores.”

Mais precisamente, este maior enfoque nas aplicações web teve inícios em 2007. Este fato pode ser evidenciado de várias formas, dentre elas, através das consultas feitas ao cache do Google apresentada pela aplicação Google trends e mostrada na Figura 3. Como se pode observar antes de 2007 há poucos registros de consultas relacionadas a segurança de aplicações web. Utilizando a mesma metodologia vemos na Figura 4 que as consultas relacionadas a segurança de redes - assunto de maior escopo relacionado a segurança de sistemas operacionais e serviços de rede - vem caindo anos após ano como conseqüência do amadurecimento em ralação a este tópico.
Figura 3

Figura 3 Consulta ao Google trens sobre “web application security”, ultimo acesso fev 2011

Figura 4

Figura 4 Consulta ao Google trens sobre “network security’, ultimo acesso fev 2011

Ainda como fato que se pode apontar como motivador para a necessidade dos ataques estarem mais focados nas aplicações web, temos neste período o surgimento das aplicações WEB 2.0, WEB 3.0,  a consolidação do browser como porta de entrada para todas as aplicações, o surgimento das API´s de desenvolvimento como a proposta do Google apps e Microsoft live e mais recentemente a computação nas nuvens.

Desta forma acredita-se, que da mesma maneira como ocorrido com os ataques a sistemas operacionais e a serviços de rede, será necessário desenvolver esforço de pesquisas, desenvolvimento de produtos e procedimentos e conseqüentemente o amadurecimento dos desenvolvedores de software no intuito de melhorar os códigos produzidos para as aplicações web, o que se pode chamar garantia da qualidade da segurança do software SSQA – Security Software Quality Assurance.


Computação nas nuvens: porque surgiu!

Rodrigo Assadsex, 02/09/2011 - 12:30

Com o aumento da velocidade de conectividade e evolução dos sistemas WEB, começa a surgir os sistemas de Internet, que mais comumente são chamados de cloud computing. Cloud computing é uma plataforma de suporte a sistemas de software que provê aos seus usuários: gerenciamento, uso sobre demanda, adequação as necessidades e automação dos processos relacionados a criação de infra-estruturas de suporte.

A demanda por software vai aumentar de forma exponencial nas próximas décadas, devido a mudanças de forças de economia global como o uso de software em larga escala como infra-estrutura de serviços, novos tipos de aplicações de integração de negócios e novas plataformas, além de combinação de serviços oferecidos via Web e dispositivos móveis, aumentando assim a quantidade de dados a serem armazenados e backupeados.

Em relação aos tipos de clouds existentes temos dois modelos que se destacam mais: clouds públicas, aquelas onde o ambiente utilizado pelos usuários é compartilhado entre os mesmos e as clouds privadas, onde o ambiente utilizado pelos usuários esta restrito e pertence a organizaçã.

Nestes ambientes existem basicamente três tipos de aplicações a serem disponibilizadas:

a) SaaS: O provedor cuida de todos os aspectos relacionados à disponibilidade, manutenção e adição de novas funcionalidades.

b) PaaS: o provedor oferta uma plataforma que será utilizada pela aplicação do usuários final. Como um sistema de backup.

c) IaaS: o provedor oferece um ambiente virtualizado e gerenciável pelo usuário.

Pode-se observar que em qualquer modelo esta nova plataforma computacional visa a racionalização da utilização dos recursos computacionais por uma organização ou um conjunto de organizações.

As tecnologias descritas serviram como um alternativa bastante viável quando ocorrido a crise internacional de 2008, onde os administradores de empresas tiverem que pensar em soluções mais criativas para a realização dos cortes, além da tradicional rodada de demissão. Com elas se tornou viável se pensar em se pagar pela “computação” efetivamente sobre demanda. Neste caso os administradores pagam pelo uso ao invés de comprar um recurso  que em boa parte do tempo não é utilizado, como por exemplo o meu computador com as licenças de software adquiridas durante o período que não utilizamos ele.