Веб-безопасность для детского веб-сайта


Я создаю сайт Wordpress для родителей 11-летней девочки, которые хотели увековечить спортивные, академические и личные достижения своих дочерей. На сайте представлены фотографии и видео ее и друзей, биографические данные и записи в блоге. Домен зарегистрирован частным образом на имя моей компании, я не добавляю их в консоль Google и минимизирую другие SEO-запросы. Там нет ни фамилий, ни физических адресов. Я хочу иметь в виду как можно больше безопасности в Интернете насколько это возможно, чтобы скребки не хватали ее фотографии и т. Д., Любопытные глаза и т. Д. Я, вероятно, параноик и, как и все мои сайты, думаю, что это может привлечь больше трафика, чем на самом деле, но я считаю, что стоит провести расследование и стоит расставить точки над i. Веб-сайт ребенка выполнен в отличном вкусе, а родитель очень приземленный, она разбирается в Интернете и т. Д.

Существуют ли какие-либо надежные методы, которые я могу предпринять для повышения безопасности в Интернете для этой 11-летней девочки и ее сайта?

Author: rhill45, 2015-11-08

4 answers

Наверное, я параноик

Может быть, Я параноик, но это звучит так, как будто это должен быть полностью частный блог/веб-сайт. т.е. защищенный паролем. Кто именно является целевой аудиторией?

Помимо аспекта безопасности (предотвращение недобросовестного поиска и использования контента), этот вид контента звучит так, как будто он созрел для издевательств со стороны других школьных "друзей". Контент, который поначалу может быть в порядке - для 11-летнего ребенка - может просто через несколько лет станет неловко.

Я не добавляю их в консоль Google

Это, казалось бы, отсталость? Способ скрыть контент от Google (т.Е. "хорошего" бота) заключается в использовании мета-тега robots (или заголовка X-Robots-Tag) и, возможно, robots.txt. Исключение его из поисковой консоли Google не поможет в этом отношении.

По крайней мере, если вы добавите его в консоль поиска Google, вы сможете отслеживать такие вещи, как обратные ссылки, проверять robots.txt, и т.д. Если вы действительно выйдете на публику.

 20
Author: MrWhite, 2015-11-09 10:17:37

Единственный подходящий ответ - защитить все это паролем. HTTP BASIC_AUTH, вероятно, самый простой в настройке, так как он никак не будет взаимодействовать с WordPress. Этого самого по себе будет достаточно, чтобы сдержать всех скребков, но если вы хотите обеспечить надлежащую безопасность, вам также следует использовать HTTPS.

(Примечание: Во многих системах HTTP-страница перенаправляется на HTTPS. Однако с помощью HTTP BASIC_AUTH это перенаправление может быть после запроса вашего пароля. Затем страница HTTPS будет снова запросите пароль. Это означает, что ваш пароль был введен дважды: один раз открытым текстом и один раз по защищенному каналу. В принципе возможно иметь разные пароли для версий HTTP и HTTPS или не иметь пароля для версии HTTP: все, что он делает, это перенаправляет на версию HTTPS, которая затем запрашивает ваш пароль. Насколько легко это настроить, зависит от того, какие инструменты вы используете для управления настройками хостинга вашего веб-сайта. В качестве альтернативы просто убедитесь, что вы всегда переходите непосредственно на страницу HTTPS, минуя небезопасную версию. Если вы используете систему паролей, отличную от HTTP BASIC_AUTH, то, вероятно, ни одно из этих дополнительных примечаний не будет применяться.)

 6
Author: TRiG, 2015-11-09 12:27:53

Во-первых, я принесу большие извинения всем профессиональным веб-мастерам, но для этой операции у меня есть одно золотое предложение:

Нарушать рекомендации поисковой системы

И я имею в виду сделать это до такой степени, чтобы важный контент был в сложном javascript, а контент, который роботы могут сканировать, не был в правильном HTML. Это включает в себя неверный тег описания, неверный тег заголовка и т. Д. Черт возьми, может быть, превратить весь контент в просто видео, сделанное во флэш-памяти, или показать весь контент как всего лишь один образ. Это действительно заставило бы поисковый робот съежиться.

Я покажу на примере в коде:

Вот способ получить что-то проиндексированное:

<!DOCTYPE html>
<html>
<head>
<title>Web page</title>
<meta name="description" content="This is a wonderful web page">
</head>
<body>
<h1>A wonderful web page</h1>
<h2>By John Smith</h2>
<p>This is a wonderful page. ya de ya de ya de ya de ya de ya de</p>
<p>This is wonderful. ya de ya de ya de ya de ya de ya de</p>
</body>
</html>

Хорошо, я признаю, что текст не идеален, но вы понимаете, что я имею в виду.

Теперь, если вы хотите скрыть это от искателей и сделать это простым способом, вы можете попробовать следующее:

<!DOCTYPE html>
<html>
<head>
<title>Private</title>
</head>
<body>
<img src="mywebsite.jpg" width=1024 height=768>
</body>
</html>

Затем создайте изображение с именем mywebsite.jpg и включите весь текст в это, а не в html, показанный выше. Тогда вам нужно защитить mywebsite.jpg сделав его версию с водяными знаками для пользователей, которые не имеют права видеть настоящую вещь. Просто сравните строки агента пользователя или ip-адреса с теми, которые вы разрешаете/запрещаете для изображения. Такого рода вещи можно сделать в .htaccess с помощью некоторых правил перезаписи.

Например, чтобы заставить googlebot видеть изображение с водяными знаками вместо реальной вещи, используйте следующие правила:

RewriteCond %{HTTP_USER_AGENT} ^googlebot$ [NC]
RewriteRule ^mywebsite.jpg$ specialrobotimage.jpg [L]

Я предполагаю здесь, что mywebsite.jpg является ли ваш реальный веб-сайт изображением и specialrobotimage.jpg является ли водяной знак или изображение сообщением о том, что только реальным пользователям разрешено просматривать информацию. Кроме того, правила предполагают, что все находится в одной папке.

 3
Author: Mike -- No longer here, 2015-11-09 02:22:35

Во-первых, это действительно вопрос WP. Я написал более 20 сайтов, которые делают то, что вам нужно, так что это довольно просто.

1 Вы заставляете всех входить в систему для просмотра каждой страницы.

2 Вы блокируете папку загрузки с помощью скрипта и .htaccess. Существуют сценарии, которые проверяют логин пользователя, прежде чем разрешить ему просматривать мультимедиа.

Если вы хотите сделать что-то среднее между этим и тем, чтобы ваш сайт был широко открыт - это большая работа. Самый простой способ сделать это - иметь две папки для загрузки - одну с безопасность и один для всего остального, если вы хотите, чтобы некоторые страницы были широко открыты для публики, а некоторые нет.

Что касается того, что другие говорят о контенте - не можете найти его, если ваши страницы заблокированы... это не совсем так. У меня есть сценарии роботов, которые будут искать дерьмо в папке для имен файлов.

Все разговоры о Google и роботах - чепуха. Это имеет значение только в том случае, если ты хочешь сделать это наполовину. Если вы это сделаете, то примите совет из некоторых вопросов, которые были подняты выше.

 3
Author: blankip, 2020-06-16 10:32:57