Posts Tagged ‘twitter’

URL Shorteners: The Genome Repositiory for Building the Intelligent Web 3.0


The Real-Time Genome 

The road to build the intelligent Web 3.0 is paved with social networks and contextual real-time communication. Web 3.0 is an advanced social computing approach: computer-mediated real-time communication between people based on a framework of meta-data that allows people as well as computers to conduct context-related and thus knowledge building communication. It is a kind of Post-Google World with people being real-time connected instead of communication via Websites (see for example Alistair Croll’s idea of How Twitter’s ReTweet creates PageRanks for humans). These networked people will create a digitally augmented collective intelligence and new ways of intellectual cooperation to innovate and invent. 

Tweets and Updates are important building blocks in this real-time computing scenario. These tools  are the cells of a knowledge building system and it’s binding agents. Tweets and Updates  connect people  as well as people with the collective knowledge base via meta-data.  Meta-Data can be grouped into 5 classes:

·         personal data (who am I),

·         relationship data (my social graph)

·         activity data  (what, where, when do I say/do something),

·         contextual data (information, topic/thread, people) and

·         systems data (which tools do I use)

Twitter (like any other social network) and it’s apps are producing lot of meta-data when distributing Tweets. Meta-data is generated in 3 ways:

·         User: plain text enriched with context (#, @, http://, RT)

·         System: information about space-time information, systems data

·         Network: transactional & dissemination data

A key position in building a framework for meta-data will be held by URL shorteners. The elevated position of URL shorteners result  from two effects. They provide the service to publishers to shorten and track their URLs and act as connection points between information/knowledge and social networks (people). And, in providing this service  more transactional meta-data is generated when the Tweet disseminates. URL shorteners like store those transactional meta-data along with the other meta-data (received via Twitter API) in their repository. These repositories are to become the Genome of the Web 3.0 as they contain the roadmap for the collective knowledge.

As Twitter is used as distribution system by the information elite (blogosphere) a high percentage of Tweets contain links (Dan Zarrella estimates, that 56% of ReTweets contain Links). These Links in conjunction with the context-related symbols (#, @) build the DNA of the collective intelligence of Web 3.0. already began to exploit crowdsourcing for a new business model: The realtime video channel shows videos that are shared within Web with shortened URLs.

The nature of information has changed fundamentally by social networks and we have to adapt our framework  for how we obtain and process information. We need something like XML represented  for Web 2.0 – a meta-language for people and computers (see the research project Information Economy metaLanguage IELM). This comprises the development of  strategies for using social media tools to access real-time data and crowdsource information. To organize the collective intelligence it needs social network (real-time) clients that are able to understand and work with meta-data. The pace of the evolution into Web 3.0 depends heavily on how fast the industry copies with the task of organizing meta-data and/or providing tools for that.  


Posted via email from’s TwitterFeed


Is Twitter about to become the Netscape of Real-Time-Web


Twitter has invented or at least introduced real-time communication as mass phenomenon. Until a few months ago Twitter dominated the marketplace for real-time communication.  Google as well as facebook considered to acquire the start-up but Evan Williams, Biz Stone and Jack Dorsey wanted to make their own way and forced Google, facebook and Microsoft to do their own real-time projects. And they did. Google just recently launched its real-time Communication platform Google Wave and its real-time search feature (in partnership with Twitter and facebook).

Google has grabbed the lead in real-time search, and it appears that Facebook and Twitter have both conceded that they aren’t going to attack Google when it comes to search. Google will definitely dominate the social-search market as facebook will dominate the social network market. Twitter has given up a powerfull position. And worse: Top Twitter like user criticize Twitter for it’s incapability to innovate. ReadWriteWeb has named Twitters lack of innovation as one of the Top Failures 2009.

I’m having flashbacks to the Browser wars during the late 1990s. You remember? In 1995 Marc Andreessen and his company Netscape Communication Corporation invented with Netscape Navigator a completely new browser that incubated the new Web. In 1995 Netscape Navigator was the most widely used web browser with a market share of around 80%. Backed by this success story Netscape made a very successful IPO on August 9, 1995. The stock was offered at $28 per share and soared to $75 on the first day of trading. Netscape’s success landed Andreessen, barefoot, on the cover of Time Magazine. Back in 1995 no one was interested in old fashioned Microsoft that just had overthrown IBM as the world’s number 1 technology company.

But Netscape’s Navigator represented a huge threat to the future of Windows and Microsoft. The Web quite obviously was the promised land for PC users. And the browser is the gatekeeper into this promised land. Whoever controls the browser controls the  PC- users. Bill Gates and Microsoft decided to absorb the browser business the unfriendly way. They integrated the Internet Explorer into Windows. IE 1.0 was released as part of the Microsoft Windows 95 in August 1995. IE 2.0 was released as a free download three months later. Unlike Netscape Navigator it was available to all Windows users for free, even for commercial companies. Within a few months the shooting star Netscape was more or less sentenced to death by Microsoft. Netscape could not compete with this Microsoft’s “free give away” strategy. They lost their economic basis. Microsoft on the other hand conquered the market: from nearly zero in 1995 to roughly 95% market share in 2003.

In 1998 Netscape was acquired by AOL. Game over! The acquisition was seen as a way for AOL to gain a bargaining chip against Microsoft, to let it become less dependent on the Internet Explorer web browser. Marc Andreessen is still a high profile guy and besides other activities one of the investors of Twitter. Let’s wait and see if Marc can support the Twitter guys with his personal experience and help them not to be eaten. Microsoft war Netscapes destiny. Hopefully Google is not Twitters…

Related stories:

Twitter: 26 Million Adult US Users Expected in 2010

Update: Twitter and Why the BtB Model Seems to be Promising

Twitter: The HyperGrowth Will Come to an End

Twitter: 26 Million adult US Users expected in 2010 (a growth rate of only 45%)


Forecasts 2010: eMarketer estimates that Twitter’s US user base tripled to 18 million in 2009 and expects a growth to 26 million in 2010. This would mean a yoy growth rate of only 45% compared with 200% in 2009. Far away from the HypgerGrowth of the past days? 

Wozu wir E-Mail heute noch brauchen – nicht für’s Mailing


Das E-Mail als Flugzeugträger im Social Media Universe. Totgesagte leben halt bekanntlich länger. Es gibt viele Experten, die meinen, dass die Zeit der E-Mails als primäres Online-Kommunikationsmedium vorbei ist. Bei der jüngeren Generation hat facebook die E-Mail schon überholt. Nach dem Motto, die Freunde sind ja ohnehin auf facebook, schickt man bilaterale Nachrichten über das facebook Postfach. Aber das E-Mail spielt auch für Google wave, facebook, Twitter & Co eine wichtige Rolle. Es ist letztlich die organisatorische Klammer über die diversen Social Media Accounts. Ohne E-Mail geht halt gar nichts. Nur für die Kommunikation brauchen wir es wohl bald nicht mehr…

Buchmarketing: Kinderbuch über Blog und Twitter

Das Abenteuer und die Geschichte:
Fünf Kinder, eine Landkarte die Abenteuer der Kinder auf der Suche nach der geheimnisvollen 1000-Blumen-Wiese erzählt uns dieses Buch in tollen, bunten Zeichnungen. Die 5 Kinder (es sind 3 Burschen und 2 Mädchen) bzw. ihre Charaktere stellen wir auch hier nachfolgend im Blog vor: Bub 1, Bub 2, Bub 3, Mädchen 1 und Mädchen 2.
Die Personalisierung -Deine Kinder und Deine Freunde als Akteure:
Das wirklich Besondere an den Buch ist die Möglichkeit, dass die Namen der 5 Kinder frei vergeben werden können. Also beispielsweise das eigene Kind und seine Freunde. Darüber hinaus kann am Cover auch noch der Name des Beschenkten eingeben werden. Ihr wollt die Geschichte vielleicht etwas verändern. Kein Problem. Hinterlasst lediglich ein Kommentar mit den Änderungswünschen.
Anschauen und Lesen:
Seht euch das Buch in unserer Online-Bibliothek an, blättert es durch, genießt die Geschichte und die Bilder und wenn es gefällt, dann bitte um Feedback oder Bestellung in unserem Shop: – books for social media!

Direktmarketing ist tot. Es lebe der Datenhandel mit Twitter & Co


Daten sind bekanntlich das Öl der Informationsgesellschaft. Datenschutz daher eines der vordringlichsten Themen. Während aber dem klassischen Direktmarkting und dem Infobrokerage das Leben durch “Opt-In” Regelungen das Leben erschwert bis unmöglich gemacht wird, entsteht in der heilen SocialMedia-Welt bereits ein umsatzträchtiges Datengeschäft. Nicht betrieben von Twitter, facebook, myspace oder anderen Betreibern von Social Networks, sondern von Dritten: API Nutzern. Weitgehend unverstanden von allen Beteiligten – außer den Händlern.

Die Daten von Twitter, facebook & Co sind viel reichhaltiger als alles, was man von herkömmlichen Datenhändlern (Infobrokern) kaufen kann. Aus den APIs von Twitter und facebook kann man jede Menge Informationen (Nachricht und Meta-Daten) rausziehen. APIs sind Datentankstellen für das von den SocialMedia-Nutzern generierte Informationsöl: Wer schickt wann Updates? Wieviele Freunde hat er/sie? Wer sind sie? Welche Tokens (#Hashtag, Sonderzeichen, Links) verwendet er/sie? Wann sendet er/sie diese? Wie oft wird sie weitergeleitet. Dann natürlich jetzt noch die GeoCodierungen. Die gabs in der analogen Welt gar nicht. Und jetzt habe ich sicher noch einiges vergessen. Fakt ist: Die APIs sind für jeden halbwegs geschickten Programmierer ein Datenparadies. Und Basis für vielversprechende Geschäftsmodelle.

Es sind ja auch schon jede Menge Analyse-Seiten im SocialMedia Universum entstanden wie TwitterCounter, TwitterGrader, Twinfluence, Twicker und und und. Jeder kann heute jeden anderen analysieren. Deswegen sind auch schon eine Reihe von neuen Geschäftsmodellen rund um diese APIs entstanden. Gesponerte Updates wie von oder ganze Kampagenen wie bei Trendrr. In Texas hat sich das Start-Up Infochimps auf derartigen Datenhandel fokussiert. Infochimps bezeichnet sich selbst als ersten offenen Marktplatz für Daten, hat 2009 über ein halbes Jahr rund 500 Tweets analysiert, ausgewertet und an das Marktforschungsunternehmen Zogby verkauft.

Twitter verdient vielleicht noch kein Geld. Aber im Ökosystem von Twitter wird bereits großes Geld gemacht. Die großen Datenhändler wie Schober, Infoscore oder Herold stehen hier noch abseits und werden wohl bald das Nachsehen haben. Wie wahrscheinlich die gesamte Direktmarketingbranche!


Join us on:

Marktforschung irrt: Twitter ist auch im Oktober 09 gewachsen


Die Nachricht, dass Twitter im Oktober 2009 erstmals einen Einbruch, einen dramatischen Einbruch, hinnehmen musste war Wasser auf die Mühlen der Kritiker. Laut Nielsen musste Twitter einen dramatischen Einbruch bei den Unique Usern hinnehmen: minus 27,8 Prozent auf 18,9 Millionen Unique User im Vergleich zum Vormonat. Wie immer bedeutet aber eine laute mediale Verbreitung einer Meldung nicht notwendigerweise deren Richtigkeit. Genau das Gegenteil ist auch bei Twitter der Fall: auch im Oktober 2009 ist Twitter gewachsen, nur keiner weiß, wie man das messen soll. Nielsen, Comscore und Co messen eben nur die Unique User, die direkt auf die TwitterSite gehen.

Fakt ist aber: Während die Welt Twitter bereits einen Abgesang bereiten will, steigen die Zugriffsraten über Social Media Clients wie Tweetdeck und Seesmic weiter dramatisch an. Und diese Zugriffe fallen nicht in die Messalgorithmen von Nielsen & Co. Nur etwas mehr als 20% der Zugriffe auf Twitter erfolgen über deren spartanische Website. Der Rest kommt über APIs bzw. über Social Media Clients. Und der Anteil der Zugriffe über APIs und Social Media Clients wächst überproportional (siehe auch real-time Statistik von TwitStat). So berichtet Seesmic auch im Oktober 2009 über Zuwachsraten von 30%. Das auf Mobile Weblösungen spezialisierte Unternehmen Novarra berichtet lt. Macworld Mitte November 2009, dass die Anzahl der Zugriffe auf Twitter über mobile Web-Interfaces im ersten Halbjahr 2009 um 3500 % gewachsen sind.

Stefan Niggemeier von ist ebenfalls der Meinung, dass das Twitter-Wachstum falsch dargestellt bzw. betrachtet wird und berichtet, dass  für 2010 von den Marktforschern 26 Millionen Twitterbenutzer erwartet werden nach 18 Millionen für 2008. Der Artikel “Flieg nicht so hoch, mein kleiner Freund” ist insgesamt erfrischend lesenswert.

Wahr ist also: Twitter wächst, nur anders als bisher. Und besser!

Interessiert an mehr? Dann folge mir auf Twitter:

Das “pragmatische” SocialWeb entreißt uns dem Google


Auf readwriteweb habe ich heut einen exzellenten Artikel von Alisa Leonard-Hansen gefunden, indem sie darlegt, wie sich das Web durch die Social Networks a la facebook, twitter oder myspace in Richtung „pragmatisches Web“ weiterentwickelt. Die zentrale Frage diesbezüglich ist, wie wir im Web Informationen besser finden bzw. besser darüber kommunizieren können. Das semantische Web sollte ursprünglich der Königsweg der verbesserten Kommunikation zwischen Mensch und (Web)Maschine sein. Also eine Art „Google Next Generation“. Der auf einem Konzept des „WWW-Erfinders“ Tim Berners-Lee basierende Ansatz geht davon aus, dass es gelingen wird, (Meta)Datenstrukturen und Anwendungen zu entwickeln, welche Computer die Eigentümlichkeiten menschlicher Sprache besser zugänglich und für sie verarbeitbar können.

 Auf dem Weg zum semantischen Web sind uns aber so ab 2006/2007 die Social Networks als emergentes Webphänomen passiert, wie Alisa nachvollziehbar darlegt. Über diese Social Networks agieren Menschen mit Menschen. Dies hat auf Twitter bereits zur Möglichkeit einer “real-time Suche” oder “sozialen Suche” geführt. Also zur Möglichkeit, Fragen in einem kontextuellen Zusammenhang von Menschen beantworten zu lassen und nicht durch mathematische Algorithmen wie bei Google und anderen traditionell Suchmaschinen. Zur Herstellung dieses Kontextes haben wir sehr pragmatisch Hilfsmittel wie das #Hashtag auf Twitter erfunden.

Falls ich Alisa richtig verstehe geht sie davon aus, dass es uns in Zukunft gelingen könnte, die Informationen über alle Social Networks hinweg zu standardisieren, mittels einheitlich Nomenklatur kontextuelle Verbindungen (also quasi eine Art „Meta-Hashtag“) herzustellen und damit das Web den Googles zu entreißen und den Menschen zurückzugeben. Die menschliche Wissensbasis basiert also auf der pragmatischen Kollaboration der Menschen. Problemlösung über Crowdsourcing mittels Social Networks. Bereits heute nutzen Millionen Menschen weltweit diese Möglichkeit.

Bis das pragmatische Web in der Allgemeinheit angekommen ist wird noch einige Zeit vergehen, die wir  brauchen, um zu lernen, wie wir die Social Networks wirklich nutzen können. Da stehen wir erst am Anfang einer Lernkurve, die eben erst knapp vor 10-24 Monaten für die meisten von uns begonnen hat.

Input für diesen Artikel habe bezogen von:

Venessa Miemis @venessamiemis

Alisa Leonard-Hansen @alisamlo

Readwriteweb @readwriteweb