Bir sayfa yayına alındı, tasarım temiz, içerik iyi ama Google hala sizi “görmüyor” mu? ABD pazarında bu senaryonun en sık nedeni içerik değil, altyapıdır. Teknik SEO, arama motorunun sitenizi tarama, anlama ve doğru sayfaları doğru sorgularla eşleştirme sürecini belirler. Hatalı bir yönlendirme, şişmiş bir JS bundle veya kanonik karmaşası – hepsi iyi içeriği görünmez yapabilir.
Bu yazı bir “site içi teknik seo kontrol listesi” gibi okunmalı ama sadece kutu işaretlemek için değil: hangi kontrolün neyi etkilediğini, ne zaman önceliklendireceğinizi ve “it depends” durumlarını netleştirmek için. Hedef kitlemiz ABD’de büyümek isteyen KOBİ ve e-ticaret markaları olduğu için, örnekleri ve kararları o gerçekliğe göre anlatıyorum.
Site içi teknik SEO kontrol listesi: Önce teşhis
Teknik SEO’da en büyük hata, sorunu görmeden çözüm uygulamak. Önce sitenizin Google tarafından nasıl algılandığını doğrulayın. Google Search Console tarafında “Pages” raporunda indekslenmeyen URL’lerin nedeni çoğu zaman teknik bir sinyaldir: noindex, canonical, redirect chain, 404, soft 404, “Crawled – currently not indexed” gibi.
Burada amaç tek tek URL kovalamak değil. Sistemsel bir problem var mı diye bakın: örneğin tüm kategori sayfaları “Duplicate” görünüyorsa kanonik veya parametre yönetimi; tüm blog sayfaları “Discovered – currently not indexed” ise crawl budget, iç linkleme veya sunucu yanıtı tarafı; binlerce URL “Alternate page with proper canonical tag” ise doğru ama sitemap ve dahili linklerin tercih ettiği URL versiyonu yanlış olabilir.
Tarama ve indeksleme: robots.txt, sitemap, meta
Teknik SEO’nun temeli arama motorunun sitenize erişebilmesidir. robots.txt ile “private” alanları engellemek mantıklı ama bazen staging, filtre parametreleri veya arama sonuçları sayfaları yanlışlıkla ana içerikle birlikte bloke edilir. ABD’de özellikle çok lokasyonlu servis işletmelerinde /location/ yapıları yanlış bir blokla tamamen kilitlenebiliyor.
XML sitemap tarafında kritik bir kural var: sitemap, indekslenmesini istediğiniz kanonik URL’leri içermeli. 301’lenen URL’ler, noindex sayfalar, 404’ler sitemap’te olmamalı. “Sitemap temizliği” çoğu zaman indeks kalitesini ve tarama verimini iyileştirir çünkü Google’a net sinyal verirsiniz.
Meta robots ve X-Robots-Tag kontrollerini de atlamayın. PDF’ler veya sistem çıktıları bazen sunucu seviyesinde noindex alır. Bu, e-ticarette ürün datasheet’leri gibi arama talebi olan içerikleri görünmez yapabilir.
URL yapısı ve yönlendirmeler: HTTPS, www, slash
ABD pazarında büyüyen markalarda sık gördüğümüz sorun: birden fazla URL versiyonu aynı içeriği sunuyor.
HTTP vs HTTPS, www vs non-www, trailing slash, büyük-küçük harf, parametreli URL’ler… Bunların hepsi tek bir kanonik versiyonda birleşmeli ve diğerleri 301 ile yönlenmeli. 302’ler geçici sinyal verir, kalıcı taşımada risklidir. Redirect chain (A -> B -> C) hız ve tarama verimi kaybıdır. Redirect loop ise doğrudan index sorununa dönüşür.
Burada “it depends” noktası şu: bazı kampanya parametreleri (UTM gibi) tamamen engellenmemeli, sadece canonical ile kontrol edilmelidir. Aksi halde attribution tarafında raporlama bozulabilir.
Canonical ve duplicate yönetimi: doğru sayfayı seçtirme
Kanonik etiket, Google’a “asıl” sayfayı söyler. E-ticarette varyasyonlar (renk, beden), filtreler, sıralamalar ve sayfalama (pagination) canonical karmaşasının ana kaynağıdır.
Genel prensip: her indekslenebilir sayfa kendini canonical göstermeli. Filtre sayfaları SEO stratejinize göre ya noindex olur ya da “search intent” varsa ayrı bir landing page gibi yönetilir. Örneğin “men’s black running shoes” gibi ABD’de yüksek niyetli bir arama varsa, sadece filtre URL’sine güvenmek yerine temiz bir kategori landing page üretmek çoğu zaman daha kontrol edilebilir sonuç verir.
Pagination’da da tek bir “page 1 canonical” zorlaması her zaman iyi değildir. Eğer her sayfa farklı ürün seti sunuyorsa, kendi kendine canonical daha sağlıklı olabilir. Burada iç linkleme ve kategori mimarisi ile birlikte düşünmek gerekir.
Site mimarisi ve iç linkleme: crawl budget’ın gerçek sahibi
Teknik SEO sadece kod değil, mimaridir. Google’ın tarama bütçesi (crawling resources) özellikle büyük kataloglarda önem kazanır. Sitenizde 20 bin URL varsa ve bunların 15 bini filtre parametresiyle üretilmiş düşük değerli sayfaysa, Google’ın kaynaklarını yanlış yere harcarsınız.
Menü, breadcrumb, kategori hiyerarşisi ve “related” blokları sadece UX değil, tarama yönlendirmesidir. Önemli sayfalar (para kazandıran servis sayfaları, ana kategoriler, high-intent landing’ler) 2-3 tıklama mesafesinde olmalı. Blog yazıları da sadece “bilgilendirme” için değil, servis sayfalarına bağlanan bir iç link ağı kurmak için kullanılmalı.
Hız ve Core Web Vitals: sadece skor değil, gelir
ABD’de rekabet yüksek. Yavaş site çoğu zaman “sıralama düştü”den önce “form dolduran azaldı” olarak kendini gösterir. Core Web Vitals (LCP, INP, CLS) burada pratik bir çerçeve sunar ama hedef tek bir Lighthouse puanı değildir.
En sık kazanç alanları genelde şunlar: görsel optimizasyon (doğru format ve boyut), gereksiz JS ve üçüncü parti script’lerin azaltılması, cache politikaları, render-blocking kaynakların düzenlenmesi.
Trade-off şu: pazarlama ekipleri takip araçlarını sever, performans ekipleri nefret eder. Hepsini kaldırmak gerçekçi değildir. Yapılacak doğru hamle, ölçümleme değerini korurken yükü azaltmaktır: gereksiz tag’leri temizlemek, ağır chat widget’larını ertelemek, kritik olmayan script’leri “defer” etmek gibi.
Mobil deneyim: responsive yetmez
Google tarafı mobile-first. Responsive tasarım başlangıç ama yeterli değil. Mobilde menü açılırken CLS artıyorsa, sticky header içerik alanını zıplatıyorsa, formlar küçük ekranlarda zor dolduruluyorsa – bu sadece UX değil, dönüşüm kaybıdır.
Servis işletmelerinde ABD’de kritik olan “tap to call” ve harita yönlendirmesi gibi mikro dönüşümlerdir. Teknik tarafta bu elementlerin doğru çalışması, schema ile desteklenmesi ve sayfa hızını bozmaması gerekir.
Yapısal veri (Schema): doğru anlaşılmanın kestirme yolu
Schema, Google’ın içeriğinizi daha net anlamasına yardım eder. LocalBusiness, Organization, Product, FAQ (uygunsa), Review, Breadcrumb gibi markup’lar ABD’de özellikle local ve e-ticaret tarafında fark yaratabilir.
Ama yanlış schema da zarar verir. “Herkese her sayfada FAQ ekleyelim” yaklaşımı kısa vadeli gibi görünür, uzun vadede kalite sinyallerini zedeler. Ürün sayfasında fiyat, stok ve varyasyonlar tutarsızsa, schema arama sonuçlarında yanlış bilgi yansıtabilir. Bu yüzden schema’nın kaynağı veri katmanınızla senkron olmalı.
Logik kontroller: 404, soft 404, 5xx ve ince sayfalar
Teknik kontrol listesinde en çok para kaybettiren kalem: bozuk sayfalar. 404 her zaman kötü değildir – kaldırdığınız bir ürün için normaldir. Kötü olan, iç linklerin 404’e gitmesi veya trafik alan URL’lerin plansız silinmesidir.
Soft 404’ler (200 dönüp “ürün yok” yazan sayfalar) özellikle e-ticarette yaygın. Google bunu düşük kalite olarak yorumlayabilir. Ürün bittiğinde gerçek stok durumu, alternatif ürünler ve doğru HTTP davranışı birlikte düşünülmeli.
5xx hataları ise genelde hosting veya uygulama kaynaklıdır ve indekslemeyi doğrudan bozar. Trafik dalgalanması yaşadığınızda, sadece SEO değil sunucu logları ve uptime verileri de masada olmalı.
JavaScript ve render: Google görüyor mu, yoksa tahmin mi ediyor?
Modern siteler sıkça React, Vue, Next.js gibi yapılarla kurulur. Google JS render edebilir ama bu “sorunsuz” demek değildir. Render gecikmesi, kritik içeriğin JS ile sonradan yüklenmesi, iç linklerin JS event’leriyle çalışması gibi durumlar taramayı zorlaştırır.
Pratik kontrol: sayfanın kaynak kodunda (view source) ana içerik ve kritik linkler var mı? Yoksa sadece bir div ve script mi görüyorsunuz? Bu durumda SSR veya pre-render gibi yaklaşımlar gündeme gelir. Her projede aynı çözüm doğru olmaz. İçerik yoğun bir blog için SSR şart olabilir, küçük bir landing page için gereksiz maliyet çıkarabilir.
Güvenlik, erişilebilirlik ve teknik borç: SEO’ya dolaylı etki
HTTPS zaten standart. Ama mixed content (HTTPS sayfada HTTP görsel) uyarıları, eski TLS yapılandırmaları ve güvenlik başlıklarının eksikliği hem kullanıcı güvenini hem de tarayıcı davranışlarını etkileyebilir.
Erişilebilirlik (alt metin, form label’ları, semantic HTML) doğrudan “SEO skoru” değildir ama içerik anlaşılabilirliğini ve kullanıcı etkileşimini iyileştirir. Bu da dolaylı olarak performansa yansır. Teknik borç biriktikçe her yeni içerik daha pahalıya çıkar – burada düzenli bakım gerçek bir büyüme kaldıraçıdır.
Önceliklendirme: her şeyi aynı anda yapmayın
Bu kontrol listesini uygularken “en çok etki – en düşük efor” çizgisinden başlayın. İndekslenmeyi kilitleyen hatalar (robots, noindex, canonical, 5xx) birinci sıradadır. Sonra hız ve iç linkleme gelir çünkü trafik ve dönüşümü aynı anda etkiler. Schema ve ince ayarlar ise üçüncü dalgadır.
Eğer ekibiniz sınırlıysa, aylık bir teknik SEO bakım ritmi kurun. Her ay küçük ama doğru düzeltmeler, yılda bir defa yapılan büyük revizyondan daha sürdürülebilir olur. Bizim müşterilerde en iyi sonuçlar, tasarım-yazılım-SEO-hosting süreçleri tek operasyonda yönetildiğinde geliyor – çünkü bir problem çıktığında “bu kimin işi?” tartışması yerine çözüm hızlanıyor. Bu yaklaşımı Sibersonik’te 365 gün teknik destek odağıyla kurguluyoruz.
Son bir düşünce: Teknik SEO, Google’ı ikna etme sanatı değil, sistemi hatasız çalıştırma disiplinidir. Siteniz ne kadar az sürpriz üretirse, içerik ve pazarlama yatırımlarınız o kadar hızlı geri döner.
