Werden die Deutschen immer depressiver?
Laut Medienberichten werden Antidepressiva so häufig verschrieben wie noch nie. Kann man daher davon ausgehen, dass die Menschen in Deutschland immer depressiver werden und die Verschreibung dieser Mittel daher zwingend notwendig ist?
Oder kann es auch sein, dass viele Antidepressiva unnötigerweise verschrieben werden? Welche Erfahrungen und Beobachtungen habt ihr in dieser Hinsicht machen können? Wie erklärt ihr euch die steigende Zahl an Verschreibungen?
Ich könnte mir vorstellen, dass mit dem Thema Depression einfach offener umgegangen wird. Viele trauen sich mittlerweile vielleicht eher wegen dieser Probleme einen Arzt aufzusuchen. Aber man hört ja auch immer wieder, dass die psychischen Erkrankungen immer mehr zunehmen. Dazu gehören Depressionen ja auch. Aber Anti-Depressiver werden ja nicht nur bei Depressionen verschrieben, sondern auch durchaus bei Angsterkrankungen und ähnlichem. Daher ist es sicherlich schwer zu sagen, ob bei den Deutschen die Depressionen zunehmen.
Ähnliche Themen
Weitere interessante Themen
- Beziehung mit dem Vorhaben eingehen, den anderen zu ändern? 2528mal aufgerufen · 10 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Phynx
Forum: Liebe, Flirt & Partnerschaft
- Beziehung mit dem Vorhaben eingehen, den anderen zu ändern?
- Beruhigend, wenn in Arztbehandlungsräumen Musik spielt? 1390mal aufgerufen · 5 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Verbena
Forum: Gesundheit & Beauty
- Beruhigend, wenn in Arztbehandlungsräumen Musik spielt?
- Sich für die Ausmaße seiner Sammlungen schämen müssen? 1587mal aufgerufen · 11 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Verbena
Forum: Alltägliches
- Sich für die Ausmaße seiner Sammlungen schämen müssen?
