robots.txt
Fügen Sie eine robots.txt
-Datei im Stammverzeichnis des app
-Ordners hinzu oder generieren Sie diese, die dem Robots Exclusion Standard entspricht, um Suchmaschinen-Crawlern mitzuteilen, auf welche URLs sie auf Ihrer Website zugreifen können.
Statische robots.txt
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Generierung einer Robots-Datei
Fügen Sie eine robots.js
- oder robots.ts
-Datei hinzu, die ein Robots
-Objekt zurückgibt.
Gut zu wissen:
robots.js
ist ein spezieller Route Handler, der standardmäßig zwischengespeichert wird, es sei denn, er verwendet eine dynamische API oder eine dynamische Konfigurationsoption.
import type { MetadataRoute } from 'next'
export default function robots(): MetadataRoute.Robots {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
export default function robots() {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
Ausgabe:
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Anpassung spezifischer User Agents
Sie können festlegen, wie einzelne Suchmaschinen-Bots Ihre Website crawlen, indem Sie ein Array von User Agents an die rules
-Eigenschaft übergeben. Beispiel:
import type { MetadataRoute } from 'next'
export default function robots(): MetadataRoute.Robots {
return {
rules: [
{
userAgent: 'Googlebot',
allow: ['/'],
disallow: '/private/',
},
{
userAgent: ['Applebot', 'Bingbot'],
disallow: ['/'],
},
],
sitemap: 'https://acme.com/sitemap.xml',
}
}
export default function robots() {
return {
rules: [
{
userAgent: 'Googlebot',
allow: ['/'],
disallow: ['/private/'],
},
{
userAgent: ['Applebot', 'Bingbot'],
disallow: ['/'],
},
],
sitemap: 'https://acme.com/sitemap.xml',
}
}
Ausgabe:
User-Agent: Googlebot
Allow: /
Disallow: /private/
User-Agent: Applebot
Disallow: /
User-Agent: Bingbot
Disallow: /
Sitemap: https://acme.com/sitemap.xml
Robots-Objekt
type Robots = {
rules:
| {
userAgent?: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}
| Array<{
userAgent: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}>
sitemap?: string | string[]
host?: string
}
Versionsverlauf
Version | Änderungen |
---|---|
v13.3.0 | robots eingeführt. |