Menganalisis Website Menggunakan 3 Tools


Tugas Softskill

Assalamu’alaikum…

            Pada pembahasan kali ini saya ingin membahas tentang Analisis Web. Seperti namanya, analisis web itu berarti menganalisa suatu web . maksudnya menganalisa yang saya ketahui disini adalah mengetahui, ataupun mengukur suatu web berdasarkan traffic atau algoritma . disini saya akan membahas 3 Tools untuk Mengukur Sebuah Website, oke langsung aja ya.. :


            PageRank adalah sebuah algoritma yang telah dipatenkan yang berfungsi menentukan situs web mana yang lebih penting/populer. PageRank merupakan salah satu fitur utama mesin pencari Google dan diciptakan oleh pendirinya, Larry Page dan Sergey Brin yang merupakan mahasiswa Ph.D. Universitas Stanford.

Kelebihan Page Rank :

  Page rank dapat lebih stabil. Walau dalam beberapa kasus ada juga blog doFollow yang pageranknya bagus dan stabil.

  Semakin bagus posisi di SERP, ini berhubungan dengan PageRank, semakin baik pagerank sebuah blog semakin baik pula posisinya di SERP

  Aman dari gangguan spammers yang mencari backlink asal-asalan jadi Untuk komentar yang masuk pasti lebih nyambung alias tidak keluar dari topik yang sedang dibahas.

Kekurangan PageRank :

1.                 Bisa dibilang Blog akan sepi pengunjung karna Pengunjung yang datang hanya mencari informasi dari blog kita

2.                Jarang atau tidak ada yang memberi komentar, kecuali postingan yang berkualitas/bermanfaat. Walau terkadang postingan yang bermanfaat pun tidak menjamin banyak dikomentari. Tapi dalam beberapa kasus, tidak sedikit blog NoFollow yang postingannya ramai komentar, contohnya blog ini 100% blog Nofollow tapi banyak juga tuh yang memberi komentar. hehehehe
 
Cara kerja :

            PageRank, memiliki konsep dasar yang sama dengan link popularity, tetapi tidak hanya memperhitungkan “jumlah” inbound dan outbound link. Pendekatan yang digunakan adalah sebuah halaman akan diangap penting jika halaman lain memiliki link ke halaman tersebut. Sebuah halaman juga akan menjadi semakin penting jika halaman lain yang memiliki rangking (pagerank) tinggi mengacu ke halaman tersebut.

            Dengan pendekatan yang digunakan PageRank, proses terjadi secara rekursif dimana sebuah rangking akan ditentukan oleh rangking dari halaman web yang rangkingnya ditentukan oleh rangking halaman web lain yang memiliki link ke halaman tersebut. Proses ini berarti suatu proses yang berulang (rekursif). Di dunia maya, ada jutaan bahkan milyaran halaman web. Oleh karena itu sebuah rangking halaman web ditentukan dari struktur link dari keseluruhan halaman web yang ada di dunia maya. Sebuah proses yang sangat besar dan komplek.

            Biasanya saya memakai Google Pagerank untuk mengetahui blog saya sudah pada rank ke berapa di google . jika kalian ingin mencobanya ikuti langkah-langkah gambar dibawah :

Lihat Gambar:


2). Alexa ( www.alexa.com )

            Tool ini akan menampilkan score website kalian di Alexa. Jika kalian memilih tampilan grafik, kalian bisa melihat grafik pengunjung Anda setiap bulannya. Alexa merupakan website penyedia traffic monitoring untuk Blog atau website kita. Alexa akan selalu memonitoring dan memperbaharui (meng-update) aktivitas dan perkembangan website kita. Semakin tinggi Rank yang kita dapatkan di alexa maka semakin tinggi pula indek pencarian blog kita di search engine. Tapi untuk mendapatkan Rank di alexa itu tidak mudah seperti yang di bayangkan karna ada tips dan trik yang harus di pelajari.

Sebagai contoh, blog saya yang telah dipasang alexa maka akan menampilan seperti ini :

Kelebihan Alexa:

1.         Alexa rank menghitung lebih syariah dan Google fokus kepada backlink sehingga para vendor dan webmaster lebih menyukai Alexa.

2.         Alexa mempunyai ranking yang tidak terlalu lama updatenya dibandingkan Google yang update ± 3 bulan sekali.

3.         Keuntungan menggunakan Alexa adalah Alexa memberikan data real yand didapat dari jumlah kunjungan yang bersifat unik dan sangat baik untuk memonitor prestasi website dalam jumlah kunjungan.

Kekurangan Alexa:

  1. Alexa rank sebagai ukuran populeritas situs itu bohong , terbukti alexarank tidak bisa baca populeritas situs yang tidak di pasang baner alexa .

  1. Alexa rank tidak up to date perkembangan situs , mulai dari konten, baik  artikel, keyword dan diskripsi, silahkan cek situs anda masing masing dan perhatikan keyword jaman dulu masih muncul .

  1. Laporan backlink alexa rank tidak akurat, silahkan buktikan buat situs baru dengan satu backlink atau beberapa backlink, cek di sana pasti tidak sama.

jika kalian ingin mencobanya ikuti langkah-langkah dibawah :

1. buka situs Alexa ( www.alexa.com ), lalu kalian Login ( menggunakan Akun Facebook juga bisa)
2. lalu klik “Products” pada Menu .
3. klik “See Other Tools for Site Owners”, dan klik “Claim Your Site” .
4. masuk akun Blog kalian, masuk Ke Dashboard – Template – Edit HTML . lalu masukan Meta Tag Alexa di bawah Code <head> atau diatas code </head> . lihat gambar dibawah :


Lihat Gambar:


3). Seomoz ( www.seomoz.org )

            Website ini akan mengukur Page Strength website Anda dengan menggunakan berbagai macam parameter, seperti Page Rank, Umur Domain, Score di Alexa, dan lain lain. Untuk memasang tool ini di website Anda lakukan test Page Strength.Setelah muncul hasilnya Anda akan diberi kode untuk di paste di website Anda.

Kelebihan Seomoz :

1.         Aman dari gangguan spammers yang mencari backlink asal-asalan jadi Untuk komentar yang masuk pasti lebih nyambung alias tidak keluar dari topik yang sedang dibahas.

2.         Saat situs kita sepi maka situs kita masih dihargai oleh Google selama backlinknya masih ada.

3.         Beberapa orang mengatakan bahwa Alexa hanya menghitung kunjungan website yang menggunakan Alexa toolbar dsb, namun beberapa orang meyakini bahwa tidak perlu menggunakan toolbar, Alexa akan tetap menghitung rank website, namun dengan menggunakan toolbar maka perhitungannya lebih maksimal dan lebih cepat.

Kekurangan Seomoz :

1.         Bisa dibilang Blog akan sepi pengunjung karna Pengunjung yang datang hanya mencari informasi dari blog kita

2.         Laporan backlink alexa rank tidak akurat, silahkan buktikan buat situs baru dengan satu backlink atau beberapa backlink, cek di sana heheheh pasti tidak sama.

3.         tidak bisa baca populeritas situs yang tidak di pasang baner Seomoz

            Pendapat pribadi mengenai tools yang memungkinkan untuk digunakan adalah page rank karena tingkat kestabilan nya yang dapat di jadikan sebuah acuan.


            Sekian yang bisa saya bahas dalam pembahasan Tugas Softskill kali ini tentang Analisis Web.. jika ada kata yang salah mohon dimaafkan, terima kasih atas kunjungannya.. ^^


 Tim Kami :

 1. Ayu Amizah                                   ( 51411317 )
 2. Mahdhika Juliansyah                   ( 54411246 )
 3. Muhammad Faris Al Fatih           ( 54411827 )
 4. Rachman Aji Putra Kusumaa      ( 58411572 )
 5. Tio Pratama Agung                      ( 57411119 )

Wassala’mualaikum…


Baca Selengkapnya Disini



Baca Juga :



Fitur Google, Yahoo, dan MSN Apakah Sudah NLP ?

Tugas Softskill

Assalamu’alaikum…

            Untuk Pembahasan Selanjutnya saya akan membahas tentang Search Engine (SE) dan SE yang sudah menggunakan NLP apa saja. Search engine di dunia internet ini memang sangatlah banyak, seperti contohnya : Altavista, Bing, AskJeeves, Ebay, Google, MSN, Yahoo, Dll . namun saya ingin membahas beberapa fitur-fitur search engine yang bisa dibilang terkenal saat ini, yaitu : Google, Yahoo, dan MSN .

            Sebelum kalian mengetahui fitur-fitur yang ada di Google, Yahoo, dan MSN, Alangkah baiknya kita mengetahui  Apa itu Search Engine itu sendiri . oke langsung aja ya disimak.. :

            Search Engine / Mesin pencari Internet adalah satu-satunya yang membebaskan kita dari kebingungan dan kekacauan menjelajah Internet. Saat ini terlalu banyak penyedia informasi di Internet, dan memeriksanya satu persatu tanpa mesin pencari adalah pekerjaan mustahil.

Lalu apa saja fitur ke-3 mesin pencari tersebut ? Berikut pembahasan singkat mengenai perbandingan fitur mesin pencari yang cukup populer, yaitu Yahoo, MSN, dan Google .

1.  Yahoo!



            Salah satu portal terbesar di Internet dan juga salah satu mesin pencari tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri.

            Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

Fitur yahoo! :

1.         Tampilan awal bagus

2.         Update berita-berita dunia dihalaman awal
3.         Menyediakan list berbagai macam fitur lainnya (konten, mobile, perdagangan, komunikasi, link bisnis dan periklanan, dll)

4.         Kecepatan mencari yang lebih cepat dari mesin pencari lainnya

5.         Yahoo! Next, Yahoo! Boss, Yahoo! Meme, Yahoo! Koprol, dan Yahoo! Answer .

Namun ada beberapa applikasi yang ditutup oleh Yahoo! Itu sendiri, yaitu :

1. Yahoo! 3600
2. Geocities
3. Yahoo! Mash Beta
4. Yahoo! Photos
5. Yahoo! Tech

2. MSN




            Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Search engine watch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! tidak ada pencarian image, atau news.

Fitur MSN :

1.         Tampilan awal ramai
2.         Update news terbaru di halaman awal
3.         Menggunakan mesin pencari bing

3. Google





            Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

Fitur pada Google

1.         Perhitungan matematika sederhana.
2.         Tampilan awal sangat simple
3.         Konversi mata uang.
4.         Melihat waktu di berbagai kota di seluruh dunia.
5.         Konversi unit.
6.         Cek ejaan.
7.         Google translate
8.         Link-Link Tersimpan
9.         Pembatasan Domain
10.       Pencarian Gambar


            Setelah membahas tentang fitur-fitur yang ada di Google, Yahoo!, Dan MSN, sekarang barulah saya menjelaskan apakah ke-3 Search Engine Tersebut sudah menggunakan NLP atau belum ? oke, untuk lebih lanjutnya silahkan simak pembahasan dibawah :

Natural Language Processing (NLP)

            adalah salah satu bidang ilmu komputer, kecerdasan buatan, dan bahasa (linguistik) yang berkaitan dengan interaksi antara komputer dan bahasa alami manusia, seperti bahasa Indonesia atau bahasa Inggris. Tujuan utama dari studi NLP adalah membuat mesin yang mampu mengerti dan memahami makna bahasa manusia lalu memberikan respon yang sesuai.

            Jadi, kesimpulannya Yahoo, google, dan MSN telah  menggunakan Natural Language Processing, karna mampu dan mengerti makna bahasa manusia pada saat kita mencari kata atau kalimat yang kita inginkan .

            Mungkin itu saja pembahasan yang bisa saya sampaikan tentang Search Engine Google, Yahoo!, dan MSN. Bila ada kata kata yang salah mohon dimaafkan.. Baca Juga ya Analisis Web yang saya akan bahas pada artikel selanjutnya.. terima kasih.. ^^


Tim Kami :

 1. Ayu Amizah                                   ( 51411317 )
 2. Mahdhika Juliansyah                   ( 54411246 )
 3. Muhammad Faris Al Fatih          ( 54411827 )
 4. Rachman Aji Putra Kusumaa     ( 58411572 )
 5. Tio Pratama Agung                      ( 57411119 )


Wassalamu’alaikum..,




Baca Juga :

Web Archiving Yang Terawetkan


Tugas Softskill

Assalamu’alaikum..

            Sesuai janji saya yang sebelumnya telah Membahas Apa itu Web Crawler, namun kali ini saya dan teman teman akan akan melanjutkan membahas tentang Apa Itu Web Archiving. Ada yang tau ga Web Archiving itu apa ? kalau di terjemahain pake bahasa indonesia sih Pengarsipan Web. Maksudnya pengarsipan itu setau saya kita mengelompokkan web tersebut hingga tersusun rapih. Nah untuk mengetahui lebih lanjut apa itu Web Archiving, simak dibawah ini ya.. :

Apa itu Web Archiving ?

            Web Achiving atau pengarsipan adalah proses pengumpulan bagian dari World Wide Web (WWW) untuk memastikan informasi yang diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web terbesar pengarsipan organisasi berdasarkan pendekatan merangkak massal adalah Internet Archive yang berusaha untuk memelihara arsip dari seluruh Web Perpustakaan Nasional , Arsip Nasional dan berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak tersedia untuk organisasi yang perlu arsip konten web.

Pengumpulan Web

            Arsiparis web umumnya biasanya mengumpulkan arsip berbagai jenis konten web termasuk HTML halaman web, style sheet , JavaScript , gambar , dan video yang . Mereka juga arsip metadata tentang sumber daya dikumpulkan seperti waktu akses, tipe MIME , dan panjang konten. Metadata ini berguna dalam membangun keaslian dan asal dari koleksi arsip. Jangan lupa tak begitu saja arsiparis mengumpulkan arsip yang begitu banyak adanya, tentu saja ada metode-metodenya.

*maksudnya arsiparis diatas adalah orang yang mengelola, memelihara, dan memberikan informasi suatu dokumen/file. Oke silahkan simak metode dibawah ini :

Metode Pengumpulan web

1.         Jauh panen

            Yang paling umum teknik web pengarsipan bekerja sama dengan web crawler untuk mengotomatisasi proses pengumpulan halaman web . Web crawler biasanya mengakses halaman web dengan cara yang sama bahwa pengguna dengan browser melihat Web, dan karena itu menyediakan metode yang relatif sederhana konten web panen jauh. Contoh web crawler digunakan untuk web pengarsipan meliputi:

          Heritrix
          HTTrack
          Wget

2.         On-Demand

            Ada banyak layanan yang dapat digunakan untuk sumber arsip web "on-demand", namun menggunakan teknik web merangkak. Layanannya seperti berikut :

          Aleph Arsip , layanan pengarsipan web untuk kepatuhan terhadap peraturan dan eDiscovery bertujuan untuk perusahaan industri hukum dan pemerintah.

          Archive.is  , sebuah layanan gratis yang menyimpan halaman dan semua gambar nya. Hal ini dapat menyimpan halaman Web 2.0.

          Arsip-It , sebuah layanan berlangganan yang memungkinkan lembaga untuk membangun, mengelola dan mencari arsip web mereka sendiri.

          Archivethe.net  , shared web-platform pengarsipan dioperasikan oleh Internet Research Memory, spin-off dari memori internet dasar (sebelumnya Yayasan Arsip Eropa). IM Situs Web.

          Kepatuhan WatchDog oleh SiteQuest Teknologi , sebuah layanan berlangganan yang memungkinkan pengguna untuk menelusuri situs ,  seperti yang muncul di masa lalu. Hal ini juga memonitor situs jika disitus tersebut terdapat perubahan.

          Snapshot freezePAGE , sebuah layanan gratis / berlangganan. Untuk melestarikan snapshot.

          NextPoint , menawarkan berbasis cloud otomatis, untuk kebutuhan terkait pemasaran, kepatuhan dan litigasi termasuk penemuan elektronik

          Situs-Archive.com , layanan berlangganan. Menangkap layar-tembakan halaman, transaksi dan perjalanan pengguna menggunakan "browser yang sebenarnya". Layar-tembakan dapat dilihat secara online atau download dalam arsip bulanan. Menggunakan Pengujian Cloud teknologi.

          Dll, karna penyedia layanan situs archive ini sangatlah banyak.

Database Pengarsipan

            Database pengarsipan mengacu pada metode untuk pengarsipan konten yang mendasari situs database-driven. Hal ini biasanya memerlukan ekstraksi dari basis data konten ke standar skema , sering menggunakan XML . Setelah disimpan dalam format standar, konten diarsipkan beberapa database kemudian dapat dibuat tersedia menggunakan sistem akses tunggal. Pendekatan ini dicontohkan oleh DeepArc dan Xinq alat yang dikembangkan oleh Bibliotheque nationale de France dan National Library of Australia.

Transaksional pengarsipan

            Transaksional pengarsipan merupakan pendekatan-event, yang mengumpulkan transaksi aktual yang terjadi antara server web dan browser web . Hal ini terutama digunakan sebagai sarana melestarikan bukti dari isi yang sebenarnya dilihat pada tertentu situs web , pada tanggal tertentu.

            Sebuah sistem pengarsipan transaksional biasanya beroperasi dengan mencegat setiap HTTP request ke, dan respon dari, web server, penyaringan setiap respon untuk menghilangkan duplikat konten, dan secara permanen menyimpan tanggapan sebagai bitstreams. Sebuah sistem pengarsipan transaksional membutuhkan instalasi perangkat lunak pada server web, dan karenanya tidak dapat digunakan untuk mengumpulkan konten dari situs remote.

Crawler

            Web arsip yang mengandalkan web merangkak sebagai sarana utama mereka mengumpulkan Web dipengaruhi oleh kesulitan merangkak web :

          Para robot protokol pengecualian dapat meminta crawler tidak dapat mengakses bagian dari sebuah situs web.

          Sebagian besar dari sebuah situs web mungkin tersembunyi di dalam Web . Misalnya, halaman hasil balik formulir web terletak pada dalam Web karena kebanyakan crawler tidak bisa mengikuti link ke halaman hasil.

          Perangkap Crawler, dapat menyebabkan crawler untuk men-download jumlah tak terbatas halaman, sehingga crawler biasanya dikonfigurasi untuk membatasi jumlah halaman dinamis sehingga tidak pesat kemajuannya.

Namun, penting untuk dicatat bahwa format web arsip asli, yaitu, dibrowse arsip web sepenuhnya, dengan link kerja, media, dll, hanya benar-benar mungkin menggunakan teknologi crawler.

Keterbatasan Umum

            Tidak hanya harus arsiparis web menghadapi tantangan teknis web pengarsipan, mereka juga harus berhadapan dengan hukum kekayaan intelektual. Peter Lyman menyatakan bahwa "Meskipun Web Yang Populer Dianggap Sebagai Domain Publik Sumber Daya, Itu Hak Cipta , Dengan Demikian, Arsiparis Tidak Memiliki Hak Legal Untuk Menyalin Web ". Namun perpustakaan nasional di banyak negara memiliki hak legal untuk menyalin bagian-bagian dari web di bawah perpanjangan deposito hukum .

            Beberapa arsip web nirlaba swasta yang dibuat dapat diakses publik seperti WebCite , yang Internet Archive atau memori internet memungkinkan pemilik konten untuk menyembunyikan atau menghapus konten diarsipkan bahwa mereka tidak ingin publik untuk memiliki akses ke. Arsip web lainnya hanya dapat diakses dari lokasi tertentu atau memiliki penggunaan diatur. WebCite mengutip gugatan baru terhadap caching Google.

Aspek Kurasi Web (menambahkan nilai dan memilih hanya konten yang paling relevan untuk pengguna spesifik)

Web yang memiliki kurasi, seperti kurasi digital, harus memiliki seperti :

          Sertifikasi kepercayaan dan integritas isi koleksi
          Mengumpulkan aset Web diverifikasi
          Menyediakan pencarian aset Web dan pengambilan
          Kontinuitas semantik dan ontologis dan komparatif dari isi koleksi

            Dengan demikian, di samping membahas metode pengumpulan Web, mereka memberikan akses, sertifikasi, dan pengorganisasian harus disertakan. Ada satu set alat populer yang membahas langkah-langkah kurasi :

Sebuah suite alat untuk Web Kurasi oleh International Internet Preservation Consortium :

          Heritrix - situs resmi - mengumpulkan aset Web
          NutchWAX - pencarian Web arsip koleksi

          Wayback (Open source Wayback Machine) pencarian koleksi arsip Web menggunakan NutchWax
          Web Kurator Alat - Seleksi dan Pengelolaan Web Collection
          dll .

           Sampai disini dulu ya pembahasan tentang Web Archiving nya.. bila ada kata-kata yang salah mohon dimaafkan.. nantikan pembahasan lainnya ya tentang Analisis Web dan Search Engine.. Terima kasih... ^^



Tim Kami :

 1. Ayu Amizah                                   ( 51411317 )
 2. Mahdhika Juliansyah                   ( 54411246 )
 3. Muhammad Faris Al Fatih          ( 54411827 )
 4. Rachman Aji Putra Kusumaa     ( 58411572 )
 5. Tio Pratama Agung                      ( 57411119 )


Wassalamu'alaikum...


Baca Selengkapnya Disini



Baca Juga :