eISSN: 1689-3530
ISSN: 0867-4361
Alcoholism and Drug Addiction/Alkoholizm i Narkomania
Current issue Archive Online first About the journal Editorial board Abstracting and indexing Subscription Contact Instructions for authors Ethical standards and procedures
Editorial System
Submit your Manuscript
vol. 31
Review paper

The ESPAD project: history and assumptions. Introduction to series of papers from the ESPAD study 1995-2015. Poland against the background of Europe

Janusz Sierosławski

Alcohol Drug Addict 2018; 31(1): 1-16
Online publish date: 2018/10/10
Article file
- AIN-1-Sieroslawski.pdf  [0.53 MB]
Get citation
PlumX metrics:


Survey studies on school students on the subject of psychoactive substance use were conducted in a few European countries already at the start of the 20th Century. One of the first school surveys in Europe was realised in Polish territory in Bochnia in 1912 [1]. The group of countries undertaking this kind of study grew considerably in the second half of the previous century. Study results for specific countries, even if arranged in comparative times, were not comparative across countries. Different methodologies and non-comparative questionnaires had been applied and various age groups had been included in studies. Researchers therefore started to notice the need of working out a European standard that would allow gaining benefits from the comparison of trends in a variety of countries. So, at the end of the 1980s, the Swedish Council for Information on Alcohol and Other Drugs (CAN), took the initiative to create a group of researchers within the Committee of Experts of Drug Epidemiology at the Pompidou Group (Council of Europe) to develop standardised research methods for school survey on psychoactive substance use by young people, especially drugs and alcohol. This narrow epidemiological approach to questions of psychoactive substance use by young people distinguishes ESPAD in its initial phase from the Health Behaviour in School-aged Children (HBSC) international study initiated in 1980s under the auspices of the WHO (World Health Organisation) in which issues of drinking and smoking were marked in the wide context of lifestyles [2].
At the start of the 1990s, the abovementioned group of researchers worked out the basis for standardised methodology including a standardised questionnaire for data gathering, which was tested in a pilot study in nine countries. The results of the pilot revealed high questionnaire validity and reliability [3]. Not only the questionnaire but also the means of sample selection, study instructions for schools, realisation timeframes, forms of results reporting and ethical principles underwent attempted standardisation.
The first edition of comparative representative school studies in keeping with this methodology took place in 1995 and marked the beginning of ESPAD studies – the European School Survey Project on Alcohol and Other Drugs. ESPAD took on the formula of an on-going programme realised by a team of researchers to who belong the copyright and are responsible for securing the funding to realise studies in their countries. In Poland, one of these researchers has been Janusz Sierosławski of the Institute of Psychiatry and Neurology since 1995. ESPAD studies at the national level are financed by the National Bureau for Drug Prevention and the State Agency for the Prevention of Alcohol-Related Problems. In 1995 alone, national studies were financed by the Ministry of Education and the Swedish government. The programme was and is open to researchers from other European countries from its initiation.
From the start of the project to 2011, the role of European ESPAD coordinator has been fulfilled by CAN, while the coordination and publishing of the European report was financed by the Swedish government. This role was taken over in 2015 by the European Monitoring Centre for Drugs and Drug Addiction (EMCDDA). ESPAD remains a programme of independent researchers supported in a financial and organisational sense by EMCDDA [4].
This article is supposed to represent the basic methodological information on ESPAD studies as a very general introduction to a cycle of articles published in this edition of Alcohol and Drug Addiction based on the results of that study. It is not supposed to be a methodological work in the sense that it analyses the “methodological kitchen”, discussion of methodological solutions or their assessment.


Research aims

The ESPAD study was conceived as a tool to monitor the phenomenon of psychoactive substance use by schoolchildren, both the legal substances like alcohol, tobacco or tranquillisers and sedatives, and the illicit drugs. The study also considers issues of substance availability and the attitudes towards their use. In recent years the scope of study has been broadened to risk behaviour in the area of new technologies like the internet, social media and on-line gaming as well as gambling.
The results of research are supposed to provide data for the creation and evaluation of psychoactive substance policy and broadly understood prevention addressed to young people [5], both in each country and at the European level. Furthermore, in Poland, ESPAD studies have been broadened to include samples from cities and regions that are willing to finance them. In this manner it is possible to speak of elementary monitoring at the local and regional scale in our country.

Study realisation protocol

For every round of ESPAD study an international protocol is created, on which every country basis its own detailed research plan. Initial versions of these plans are discussed at regional meetings among researchers from a number of countries.
The international study protocol consists of: research tool templates (questionnaire for participants as well as class study report),
• database template,
• sampling principles,
• principles for data collection at schools,
• principles of data flow and processing,
• national report of study realisation template.
Research principles in the study protocol are in part formulated at a rather general level leaving countries a degree of elasticity in their implementation. The natural limitation to full, detailed standardisation includes among others the different school systems, varied research traditions, availability and quality of basic sampling data, the broadly understood cultural context, availability of funds for study realisation.
ESPAD coordination at European level is the role of an elected Steering Committee that also sees to the implementation of the protocol and the overall methodological correctness of studies.
The current Steering Committee is made up of:
• Sabrina Molinaro (Italy) – European coordinator of ESPAD,
• Julian Vicente – EMCDDA representative,
• Sharon Arpa (Malta),
• Pavla Chomynova (Czech Republic),
• Ludwig Kraus (Germany),
• Håkan Leifman (Sweden),
• Karin Monshouwer (Netherlands),
• Stanislas Spilka (France).


The ESPAD questionnaire is made up of closed multiple-choice questions. Skipping rules have been avoided in the compilation of the questionnaire and the principle is that every question needs to be considered. It is assumed that in the case of self-administrated questionnaire, simplicity of construction is essential to gaining reliable responses.
The questionnaire is made up of a core questions and thematic optional sets. Apart from that, every country has the right to add its own specific questions but these should be located at the end of the questionnaire in order to maintain comparability.
The range of socio-demographic data collected in the ESPAD study is limited to gender, age, parents’ educational background, makeup of the household and a respondent valuation of the family’s material situation on a subjective rating scale.
All the international questionnaires from each ESPAD edition are available on the project internet page at: http://www.espad.org/reports-documents under English Student Master Questionnaires.
In its long history, the ESPAD questionnaire has undergone many changes. These were not limited to reformulation of questions or the modification of multiple choice answer sets. There was a change to the questionnaire structure in 2007. Originally the question blocs in the basic segment were arranged according to problems like substance use, availability and attitudes. From 2007, substance type was adopted as the ordering criteria, with questions first on tobacco, then alcohol, followed by cannabis products and other illicit drugs. In 2015, a question about gambling and internet use was added to the basic segment. The widened scope of the study involved resignation from some questions concerning psychoactive substances in order to keep the questionnaire of reasonable size.
All the changes in the questionnaire result from agreement between researchers. The initiative to introduce them usually came from researchers of new countries that joined the programme.
The questionnaire was developed and modified in the English language version. Translations into the participating countries’ languages were verified by back-translation into English.
The questionnaire questions were validated and the results were presented in each of the international ESPAD study reports [7-15]. A special validation study was carried out in 4 countries in 2013 [16].
The questionnaire included two questions that served to verify the reliability of the gained results. The first was about the use of a non-existent drug called relevin. In Poland in 2015, 1.7% of respondents declared having used this drug at least once in a lifetime with an average of 0.7% for all countries.
The adjustment of the scale to possible concealment of one’s experiences with drugs was the question: “If you have ever used marijuana or hashish, would you write about this in this questionnaire?”. In Poland in 2015, 7% of respondents answered that they would definitely not admit to using cannabis products if they had used them while the average for answers of this kind for all countries was 9.6% [7].
This may mean that Polish respondents to a degree greater than in the majority of countries were ready to declare experiences that did not have a factual basis and respectively to a slightly lesser degree to concealing the facts.

Population and sample

The population studied in ESPAD are students born in a definite year who at the time of the study are 15-16 years of age. Due to the variety of school systems in Europe including the principles and timetable of student recruitment, the cohort approach was the only option guaranteeing comparability of results as regards age [7]. This means that the defining inclusion criterion for international comparative studies is the year of birth. Therefore, for example in 2015, this was the year 2000. The study includes young people at a specific period in their lives in which their behaviour patterns are changing dynamically as they enter maturity, and this reflects on their behaviour as regards psychoactive substances. This is why even a few months in this breakthrough period of life may significantly affect the study results.
Year of birth is not the only criteria defining the studied population. Other criteria include the student’s status in the school system for youth (public or private schools), with the exception of special schools and presence in the class at the moment of study.
There was also the option of broadening the studied population to students of 17-18 years of age. Poland was one of the few countries that took advantage of this option.
The study is realised on representative samples where the representativity is guaranteed by random sampling of students. The details of the selection mechanism are decided at the national level taking into account the specifics of basic national population character distribution, the characteristics of the available sampling frame and the assumed sample size etc. However, the basic requirements concerning sample selection have a universal character. These are made up of:
1. Random selection guaranteeing that every population member, at least approximately, has the same probability of inclusion in the sample independent of what school they are at.
2. Cluster sampling with the cluster defined as the school class in which the participants are all students or all fulfil the criteria of belonging to the studied population.
3. The size of the sample guaranteeing the representativity of estimates for boys and girls separately for a given year.
The Polish sample is a stratified clustered sample with oversampling for cities and regions that can join the study. In 2015, nine voivodeships (Dolnośląskie, Kujawsko-Pomorskie, Lubelskie, Małopolskie, Mazowieckie, Opolskie, Śląskie, Świętokrzyskie, Zachodniopomorskie) and four cities (Wrocław, Bydgoszcz, Kędzierzyn-Koźle, Poznań) additionally entered the sample. Related disparities were compensated by weighting.
In 2015, the sampling frame in our country was the Ministry of Education list of schools containing information on the number of third middle school classes and the number of students in these classes in each school. Two-staged sampling was applied. In the first stage schools with probabilities proportional to the number of third class students were randomly selected. A systematic random sampling schema was applied from the list of randomly ordered schools. In the second stage, one class was randomly selected from each of the schools. The selection was conducted in each voivodeship separately conducting sample allocation proportional to the number of students from the target study population. The size of sample in the voivodeships that joined the study was determined at a level guaranteeing representativity for the studied population. The samples for the cities were randomly selected according to the same scheme with the difference that due to the size of population in terms of number of schools, some of which might have been selected numerous times. In these schools as many third classes were randomly selected as many times a given school appears in the sample.
The first ESPAD study edition in 1995 included 22 countries (Table I). Further editions saw more countries joining while some ended or interrupted participation in ESPD. In 2015, 34 countries participated. In all editions, 18 countries took part, including Poland. In their case we can analyse an uninterrupted trend from six editions conducted every four years [8].
Sample sizes differ by country and also change with time. Due to the cluster sampling and assumptions on representativity not only for the whole cohort but also for each gender, it was agreed that a sample should be no smaller than 2400 students [6]. Exceptions to this rule were accepted for the smallest countries like Greenland, the Isle of Man, the Faroes, Luxemburg, Lichtenstein, Monaco and Cyprus (in the majority of these countries all students from the target cohorts were included). Not all the countries in all ESPAD editions were able to fulfil requirements for sample size. For example, Denmark in 1999 and 2007, and Netherlands for successive editions from 2003 did not reach the accepted number of questionnaires. Not all countries participated in the sample with representative samples for the whole country. In Germany, the study was realised only in a few federal lands, in Belgium only in Flanders and in Russia only the 2007 sample was for the country as a whole, and in the other years only covered Moscow.

Data gathering

The study is conducted using self-administrated questionnaire method in school classes in the spring term. There are exceptions to this rule resulting from organisational or financial problems.
In Poland, the survey team is recruited from beyond the world of education. Above all, young people are employed, mainly high school students who will have easy contact with school children. The research assistants are trained and equipped with detailed written instructions. Their tasks include, apart from running the study in class, preparation of a report containing a description of the realised study, information about the class and absent students during the study.
In certain countries like Austria, Cyprus, Denmark, Finland, Island, Ireland, Italy, Norway, Portugal, Sweden and the United Kingdom, school surveys are conducted by teachers. In Belgium, Croatia, Slovenia and Lithuania, the data is collected by other persons employed in the school system. It is the ESPAD standard that school studies ought to be realised by persons who students trust so there is no absolute requirement that survey leaders are employed from beyond the school system.
In Poland, establishing contact with the selected schools and negotiating the school’s participation in the study is the duty of the survey leaders. They are supported by the local survey leaders coordinator and the regional office of education superintendent.
The research assistant receives the selected school’s address and class number on the sample print-out. In a given school, the classes at each level are arranged in a definite manner (by letter, number or other mark). It is the survey leader’s role to identify selected classes with the arrangement in force at the school and their randomly selected number.
In the study procedure, a lot of care is taken to ensure respondents receive a sense of maximum security and full anonymity. In Poland this is supported by:
• absence of the teacher in the class during the study,
• survey leaders’ rules of conduct (e.g. they cannot walk around the class and look at what the students are doing with the questionnaire),
• special procedure for return of questionnaire by student inside a sealed envelope.
All countries use envelopes to return the surveys though in seven countries these are envelopes or collection boxes for the whole class [7].
In their instructions, students receive assurance of full study anonymity, both at the individual level and at that of the whole school. This means that the results for the whole school are also confidential. This is a universal rule as it derives from the general study principles.
In the last study editions there were attempts in certain countries to collect data in digital form using the internet. In 2015, in four countries (Austria, Netherlands, Lichtenstein and Latvia) this was the method used for realising the study. It remains an open question whether data gathered in this way are comparative with that collected using traditional pen and paper techniques.
In Poland, only in a few schools was parental consent required for children’s participation in the study. This was also the case in seven other countries while in nine countries no parental consent was needed [7]. In Poland, the decision to carry out the study remained the school director’s prerogative and it is here where it is decided whether or not to consult parents on consent and in what form of procedure.
Every study in a school class is documented in a standard classroom report in which the survey leader includes data on the number of participating and non-participating students, how long the study took, the atmosphere in the class and the attitude of the students to the study.
Indicators of sample realisation at the level of school classes and students are quite highly differentiated both over time and as regards country. Their values for particular countries are included in every international report. In 2015 in Poland, the participation indicator for school classes (94%) was higher than average for all countries (88%), while the indicator of student participation from the classes included in our country study (83%) was lower than the analogous average (88%) [8].

Data processing and statistics

In Poland, the survey leaders, after having checked whether the material is complete, send it on to the Institute of Psychiatry and Neurology, responsible for the whole study, via the local coordinators. The survey’s following registration underwent a checking procedure in order to identify incorrect questionnaires (e.g. containing abusive texts or drawings). Then the database was set up and verified.
From 1995 to 2003, control of databases and generation of results were conducted at the national level. The results were sent to the coordinator in aggregated form using standardised tables. It was on the basis of these that European reports were generated. In 2007, the process of control of data collections and statistical processing was centralised. National databases are sent to and integrated in a single database including all ESPAD editions from all countries participating in the programme. In 2011, row data from a majority of countries from 1995-2003 was obtained that supplemented the database in later years. This database is available not only to ESPAD researchers but also to any site on application to the Steering Committee. Information on the rule for making the collection available and application procedure may be found at the internet site http://www.espad.org/databases.
Weighting procedure was applied to the Polish results in order to even out the effect of including regional and local sample data to the national database. Thus the national sample was significantly reduced by weighting over-represented voievodeships and cities proportionally to their share in the general country population. In other countries, weighting was also applied though the results were weighted to the average.


The results of every ESPAD edition were published in the form of a European Report in which the results of each country were presented [8-13]. In each of the report editions, we always find not only the results from a given year, but also analysis of trends with the application of results from previous editions. The European report is limited to young people from the basic cohort – that is 15 to 16 year-old students. Only once were studies from the optional cohort with 17-18 year-old students published [14].
Apart from European reports, each country published its own national reports. The Polish ESPAD study reports were published on the internet pages of the National Bureau for Drug Prevention or the State Agency for the Prevention of Alcohol-Related Problems. The results published in the Polish reports differ slightly from the Polish results in the European reports. This is because of differing definitions of population with only students born in a given year included in the European report while in the Polish report, we find results from all students from a given class, and so also second year students and those who joined the classes early.
ESPAD data have been applied in many publications in various countries and their long, though not complete list may be found on the ESPAD internet site http://www.espad.org/references-literature. Analysis of ESPAD results may also be found in the publications of Polish authors [16-24].

Limited comparability of results

Despite efforts to ensure the full comparability of ESPAD study results, both between countries and between particular factors at various points in time, we have continued to encounter certain obstacles. After the implementation of a high level of study methodology standardisation, there still remains the cultural context, which in certain countries may tend to distort results as disrupt comparability between countries. Therefore, because of this context, in countries with a liberal drug policy, like Netherlands, students will find it much easier to admit to using drugs than in those with a restrictive policy like Sweden or Poland. Differences in the prevalence of experiences with drugs estimated on the basis of survey studies may therefore result, at least in part, from differences in the readiness to report and may mask the real differences.
Comparability in time is hindered by the many changes that the questionnaire has undergone. It is true that a few basic questions about the use of substances have not changed. However, the numerous changes to the structure of the questionnaire may have influenced the answers. The largest changes to the questionnaire structure took place in 2007.


Badania ankietowe młodzieży szkolnej na temat używania substancji psychoaktywnych prowadzono w niektórych krajach Europy już na początku XX stulecia. Jedne z pierwszych badań szkolnych w Europie zrealizowano na ziemiach polskich w Bochni w 1912 roku [1]. Krąg państw podejmujących takie badania poszerzył się znacznie w drugiej połowie poprzedniego stulecia. Wyniki badań prowadzonych w poszczególnych krajach, nawet jeśli układały się w porównywalne ciągi czasowe, to porównywalność między krajami nie była zachowana. Stosowano różne metodologie, posługiwano się nieporównywalnymi kwestionariuszami, obejmowano badaniami różne grupy wiekowe. W gronie badaczy zaczęto dostrzegać potrzebę wypracowania europejskiego standardu, który pozwoliłby czerpać korzyści z porównywania trendów w różnych krajach. Naprzeciw tym potrzebom pod koniec lat osiemdziesiątych XX wieku wyszła inicjatywa Szwedzkiej Agencji Badań nad Alkoholem i Narkotykami (CAN). Dzięki tej inicjatywie, w ramach Komitetu Ekspertów ds. Epidemiologii Narkomanii Grupy Pompidou (Rada Europy), powołano grupę badaczy do opracowania standaryzowanej metodologii badań szkolnych nad używaniem substancji psychoaktywnych przez młodzież, zwłaszcza narkotyków i alkoholu. To wąskie epidemiologiczne podejście do kwestii używania przez młodzież substancji psychoaktywnych odróżnia ESPAD w jego początkowej fazie od zainicjowanego w latach osiemdziesiątych, pod auspicjami WHO (Światowej Organizacji Zdrowia), międzynarodowego badania zachowań zdrowotnych młodzieży szkolnej HBSC, w którym kwestia picia alkoholu i palenia tytoniu osadzona została w szerokim kontekście stylów życia [2].
Na początku lat dziewięćdziesiątych wspomniana grupa badaczy wypracowała zręby standaryzowanej metodologii, w tym standardowy kwestionariusz do zbierania danych, który został pilotażowo sprawdzony w badaniach w dziewięciu krajach. Wyniki tego pilotażu wykazały wysoką trafność i rzetelność kwestionariusza [3]. Próbom standaryzacji poddano nie tylko kwestionariusz, ale także sposób doboru próby, instrukcje realizacji badań w szkołach, terminy realizacji badań, sposób raportowania wyników, zasady etyczne.
Pierwsza edycja porównywalnych, reprezentatywnych badań szkolnych według tej metodologii przypadła na 1995 rok. Taki był początek badań ESPAD – Europejskiego Programu Badań Szkolnych nad Używaniem Alkoholu i Narkotyków. ESPAD przyjęło formułę bezterminowego programu realizowanego przez zespół badaczy, do których należą prawa autorskie i są oni też odpowiedzialni za znalezienie funduszy na realizację badania w swoich krajach. W Polsce od 1995 roku takim badaczem jest Janusz Sierosławski z Instytutu Psychiatrii i Neurologii. Badania ESPAD zaś na poziomie kraju są finansowane przez Krajowe Biuro ds. Przeciwdziałania Narkomanii oraz Państwową Agencję Rozwiązywania Problemów Alkoholowych. Jedynie w 1995 roku badanie ogólnopolskie finansowało Ministerstwo Edukacji oraz Rząd Szwecji. Program z założenia był i jest otwarty na włączenie badaczy z innych krajów europejskich.
Od początku do 2011 roku funkcję europejskiego koordynatora ESPAD pełnił CAN, zaś koordynację oraz opracowywanie raportu europejskiego finansował rząd Szwecji. Od 2015 roku tę rolę przejęło Europejskie Centrum Monitorowania Narkotyków i Narkomanii (EMCDDA). ESPAD pozostaje programem niezależnych badaczy, ale wspieranym finansowo i organizacyjnie przez EMCDDA [4].
Niniejszy artykuł ma za zadanie prezentację podstawowych informacji metodologicznych dotyczących badania ESPAD. Stanowi bardzo ogólne wprowadzenie do cyklu artykułów publikowanych w tym numerze „Alkoholizmu i Narkomanii”, bazujących na wynikach tego badania. Nie pretenduje on do miana pracy metodologicznej w sensie analizowania „metodologicznej kuchni”, omawiania metodologicznych rozwiązań czy ich oceny.


Cel badania

Badanie ESPAD zostało pomyślane jako narzędzie monitorowania zjawiska używania substancji psychoaktywnych przez młodzież szkolną – zarówno tych legalnych, jak alkohol, tytoń czy leki uspokajające oraz nasenne, jak i nielegalnych, czyli narkotyków. W badaniu poruszano kwestie dostępności substancji, a także postaw wobec ich używania. W ostatnich latach tematyka badania została rozszerzona na zachowania ryzykowne z obszarów nowych technologii (internet, media społecznościowe, gry on-line) oraz gier hazardowych.
Wyniki badań mają dostarczać danych do kreowania i ewaluacji polityki wobec substancji psychoaktywnych oraz szeroko rozumianej profilaktyki adresowanej do młodzieży [5], nie tylko w poszczególnych krajach, ale i na poziomie europejskim. Ponadto w Polsce do badań ESPAD włączane są próby badawcze z miast i województw, które chcą je finansować. W ten sposób w naszym kraju można mówić także o elementach monitorowania w skali lokalnej i regionalnej.

Protokół realizacji badania

Dla każdej rundy badania ESPAD tworzony jest międzynarodowy protokół. Na jego podstawie każdy z krajów opracowuje szczegółowy plan badania. Wstępne wersje tych planów są dyskutowane na spotkaniach regionalnych w gronie badaczy z kilku krajów.
Na międzynarodowy protokół badania składają się:
• wzory narzędzi badawczych (kwestionariusz dla uczniów oraz raport z badania w klasie),
• schemat baz danych,
• zasady doboru próby,
• zasady realizacji badań w szkołach,
• zasady przepływu danych oraz ich przetwarzania,
• wzór raportu krajowego z realizacji badania.
Zasady zawarte w protokole badania są częściowo formułowane na dość ogólnym poziomie, pozostawiając krajom pewną elastyczność w ich wdrażaniu. Naturalnym ograniczeniem pełnej, szczegółowej standaryzacji są m.in. zróżnicowania systemów szkolnych, odmienne tradycje badawcze, dostępność i jakość danych stanowiących podstawę doboru próby, szeroko pojęty kontekst kulturowy, dostępne środki finansowe na realizację badań.
Koordynacja europejska projektu ESPAD spoczywa na barkach pochodzącego z wyborów Komitetu Sterującego, który czuwa także nad wdrażaniem protokołu oraz ogólnie nad metodologiczną poprawnością badania.
Skład aktualnego Komitetu Sterującego:
• Sabrina Molinaro (Włochy) – europejski koordynator ESPAD,
• Julian Vicente – reprezentant EMCDDA,
• Sharon Arpa (Malta),
• Pavla Chomynova (Czechy),
• Ludwig Kraus (Niemcy),
• Håkan Leifman (Szwecja),
• Karin Monshouwer (Holandia),
• Stanislas Spilka (Francja).


Kwestionariusz ESPAD składa się tylko z pytań zamkniętych, z zestawami odpowiedzi do wyboru. W konstrukcji kwestionariusza unika się stosowania reguł przejść, zasadą jest, że trzeba rozważyć odpowiedź na każde pytanie. Zakłada się, że w przypadku kwestionariusza do samodzielnego wypełniania prostota konstrukcji jest konieczna dla uzyskania rzetelnych odpowiedzi.
Kwestionariusz składa się z podstawowego zestawu pytań oraz tematycznych zestawów opcjonalnych. Ponadto każdy z krajów ma prawo dodać swoje specyficzne pytania, ale w trosce o porównywalność wyników powinny być one umieszczone na końcu kwestionariusza.
Zestaw danych społeczno-demograficznych zbieranych w badaniu ESPAD ogranicza się do płci, wieku, wykształcenia rodziców, składu gospodarstwa domowego oraz oceny sytuacji materialnej rodziny dokonywanej przez respondentów na subiektywnej skali szacunkowej.
Wszystkie międzynarodowe kwestionariusze z poszczególnych pomiarów badania ESPAD są dostępne na stronie internatowej projektu pod adresem http://www.espad.org/reports-documents w zakładce: English Student Master Questionnaires.
Kwestionariusz w długiej historii ESPAD ulegał licznym zmianom. Nie ograniczały się one do przeformułowywania pytań czy modyfikacji zestawów odpowiedzi. W 2007 roku dokonano zmiany struktury kwestionariusza. Pierwotnie bloki pytań segmentu podstawowego były uporządkowane według problemów: używanie substancji, dostępność, postawy. Od 2007 roku jako kryterium porządkowania przyjęto typ substancji, pytając najpierw o tytoń, potem o alkohol, następnie o przetwory konopi i inne narkotyki. W 2015 roku do segmentu podstawowego dodano pytania o gry hazardowe oraz korzystanie z internetu. Z rozszerzeniem zakresu badania wiązała się rezygnacja z części pytań dotyczących substancji psychoaktywnych, aby zachować rozsądną długość kwestionariusza.
Wszystkie zmiany w kwestionariuszu są efektem uzgodnień między badaczami. Inicjatywa ich wprowadzania wychodziła zwykle od badaczy z nowych krajów dołączających do programu.
Kwestionariusz został opracowany i był poddawany modyfikacjom w angielskiej wersji językowej. Tłumaczenia na języki krajów uczestniczących w badaniu były weryfikowane przez powtórne tłumaczenia na język angielski.
Pytania kwestionariusza poddawano walidacji, a wyniki tych zabiegów prezentowano w poszczególnych międzynarodowych raportach z badań ESPAD [7–15]. W 2013 roku przeprowadzono specjalne badania walidacyjne w czterech krajach [16].
W kwestionariuszu zawarto dwa pytania, które służyły ocenie wiarygodności uzyskanych wyników. Pierwsze z nich to pytanie o używanie nieistniejącego narkotyku nazwanego relevin. W Polsce w 2015 roku używanie tego środka chociaż raz w życiu zadeklarowało 1,7% uczniów, przy średniej dla wszystkich krajów 0,7%.
Próbą przybliżenia skali możliwego zatajania swoich doświadczeń z narkotykami było pytanie, które brzmiało: „Gdybyś kiedykolwiek używał(a) marihuany lub haszyszu, czy sądzisz, że napisał(a)byś to w tym kwestionariuszu?”. W Polsce w 2015 roku 7% badanych odpowiedziało, że zdecydowanie nie przyznałoby się do używania przetworów konopi, gdyby ich używali, podczas gdy średnia takich odpowiedzi na to pytanie ze wszystkich krajów to 9,6% [7].
Oznaczać to może, że badani w Polsce w nieco większym stopniu niż w większości krajów są skłonni do deklarowania doświadczeń, które nie miały pokrycia w faktach, a w trochę mniejszym stopniu do zatajania faktów.

Populacja i próba

Populacją poddaną badaniu ESPAD są uczniowie urodzeni w określonym roku, którzy w momencie badania mają 15–16 lat. Ze względu na zróżnicowanie systemów szkolnych w Europie, w tym zasad i harmonogramu rekrutacji uczniów, jedynym podejściem gwarantującym porównywalność wyników ze względu na wiek jest podejście kohortowe [7]. Oznacza to, że kryterium definicyjnym włączenia do porównań międzynarodowych jest rok urodzenia. Na przykład w badaniu z 2015 roku był to rocznik urodzonych w 2000. Badanie obejmuje młodzież w szczególnym okresie jej życia, kiedy mamy do czynienia z dynamicznymi zmianami wzorów zachowań, związanymi z wkraczaniem w dorosłość, w tym zachowań wobec substancji psychoaktywnych. Dlatego nawet kilka miesięcy w tym przełomowym okresie życia może istotnie ważyć na wynikach badania.
Rok urodzenia nie jest jedynym kryterium definicyjnym badanej populacji. Inne kryterium to status ucznia w systemie szkolnym dla młodzieży (szkoły publiczne i prywatne), z pominięciem szkolnictwa specjalnego, oraz obecność w klasie szkolnej w momencie badania.
Opcjonalnie przewidziano także rozszerzenie badanej populacji o rocznik o dwa lata starszy, czyli młodzież w wieku 17–18 lat. Tylko kilka krajów wykorzystuje tę opcję, w tym Polska.
Badania realizowane są na próbach reprezentatywnych, gdzie reprezentatywność jest gwarantowana przez losowy dobór uczniów. O szczegółach mechanizmu doboru decyduje się na poziomie krajowym, z uwzględnieniem specyfiki krajowych rozkładów podstawowych cech populacji, charakterystyki dostępnego operatu losowania, założonej wielkości próby itp. Jednak podstawowe wymagania dotyczące doboru próby mają charakter uniwersalny. Składają się na nie:
1. Dobór losowy gwarantujący każdemu członkowi populacji, przynajmniej w przybliżeniu, jednakowe prawdopodobieństwo trafienia do próby, niezależnie od tego, do jakiej szkoły uczęszcza.
2. Klastrowy dobór – klaster definiowany jako klasa szkolna, w której badani są wszyscy uczniowie lub wszyscy spełniający kryteria przynależności do badanej populacji.
3. Wielkość próby gwarantująca reprezentatywność oszacowań dla chłopców i dziewcząt, osobno dla określonego rocznika.
W Polsce próba ma charakter klastrowo-warstwowy, z doreprezentacjami miast lub województw, które mogą przyłączyć się do badania. W 2015 roku w skład próby ogólnopolskiej weszły doreprezentacje dziewięciu województw (dolnośląskie, kujawsko-pomorskie, lubelskie, małopolskie, mazowieckie, opolskie, śląskie, świętokrzyskie, zachodniopomorskie) oraz czterech miast (Wrocław, Bydgoszcz, Kędzierzyn-Koźle, Poznań). Związane z tym dysproporcje były wyrównywane wagami.
W 2015 roku w naszym kraju operatem losowania była lista szkół Ministerstwa Edukacji, zawierająca informacje o liczbie klas trzecich gimnazjum oraz o liczbie uczniów tych klas w każdej szkole. Zastosowano dwuetapowy dobór próby. W pierwszym etapie losowano szkoły z prawdopodobieństwami proporcjonalnymi do liczby uczniów w klasach trzecich. Stosowano schemat losowania systematycznego ze zbioru losowo uporządkowanych szkół. Podczas drugiego etapu w każdej wylosowanej szkole losowano jedną klasę. Dobór prowadzono w każdym z województw, osobno dokonując alokacji próby, proporcjonalnie do liczby uczniów z badanej populacji. Wielkość prób w województwach, które dołączyły do badania, była określana na poziomie gwarantującym reprezentatywność dla badanej populacji. Próby miast losowano osobno według tego samego schematu, z tą różnicą, że ze względu na wielkość populacji, w sensie liczby szkół, niektóre z nich mogły być wylosowane wielokrotnie. W takich szkołach zatem losowano tyle klas trzecich, ile razy dana szkoła pojawiała się w próbie.
W pierwszym badaniu ESPAD w 1995 roku uczestniczyły 22 kraje (tab. I). W kolejnych edycjach badania dochodziły nowe państwa, a niektóre z dotychczas uczestniczących kończyły lub przerywały swój udział w ESPAD. W 2015 roku w badaniu uczestniczyły 34 kraje. We wszystkich edycjach badania brało udział 18 krajów, w tym Polska. W ich przypadku możemy analizować nieprzerwany trend z sześciu pomiarów dokonywanych co cztery lata [8].
Wielkości prób są zróżnicowane ze względu na kraje, ale także zmieniają się w czasie. Z uwagi na klastrowy dobór oraz założenie o reprezentatywności nie tylko dla całej kohorty, ale także dla każdej z płci osobno ustalono, że próba nie powinna być mniejsza niż 2400 uczniów [6]. Dopuszczono odstępstwa od tej reguły dla najmniejszych krajów, takich jak Grenlandia, Wyspa Man, Wyspy Owcze, Luksemburg, Lichtenstein, Monako czy Cypr (w większości tych krajów badaniem objęto wszystkich uczniów z docelowej kohorty). Nie we wszystkich edycjach ESPAD udało się każdemu z krajów spełnić standard wielkości próby. Na przykład Dania w 1999 i w 2007 roku czy Holandia w kolejnych pomiarach od 2003 roku nie osiągnęły założonej liczby ankiet. Nie wszystkie kraje uczestniczyły w badaniu z próbami reprezentatywnymi dla całego kraju. W Niemczech realizowano je tylko w kilku krajach związkowych, w Belgii – tylko we Flandrii, zaś w Rosji jedynie w 2007 roku badanie miało charakter ogólnokrajowy, w pozostałych latach obejmowało wyłącznie Moskwę.

Zbieranie danych

Badanie jest realizowane metodą ankiety audytoryjnej w klasach szkolnych, w terminie wiosennym. Wyjątkowo zdarzają się odstępstwa od tej reguły, wynikające z problemów organizacyjnych lub finansowych.
W Polsce zespół ankieterów rekrutuje się spoza systemu oświaty i wychowania. Jako ankieterzy są zatrudniani przede wszystkim ludzie młodzi, głównie studenci, którzy łatwo nawiązują kontakt z młodzieżą szkolną. Ankieterzy zostają przeszkoleni oraz wyposażeni w szczegółową pisemną instrukcję. Do ich zadań, poza przeprowadzeniem badania w klasie, należy przygotowanie raportu zawierającego opis realizacji badania, informacje o klasie oraz o uczniach nieobecnych w trakcie badania.
W niektórych krajach, takich jak Austria, Cypr, Dania, Finlandia, Islandia, Irlandia, Włochy, Norwegia, Portugalia, Szwecja czy Wielka Brytania, badania w szkołach realizowane są przez nauczycieli. W Belgii, Chorwacji, Słowenii i na Litwie dane zbierają inne osoby zatrudnione w systemie szkolnym. Zgodnie ze standardem ESPAD badanie w szkołach powinno być realizowane przez osoby cieszące się zaufaniem uczniów, nie ma zatem bezwzględnego wymogu zatrudniania ankieterów spoza systemu szkolnego.
W Polsce nawiązanie kontaktu z wylosowanymi szkołami oraz negocjowanie udziału szkoły w badaniu należy do obowiązków ankietera. W ich realizacji może on liczyć na wsparcie lokalnego koordynatora pracy ankieterów oraz kuratoriów oświaty i wychowania.
Na wydruku próby ankieter otrzymuje informacje adresowe wylosowanej szkoły oraz numer wylosowanej klasy. W danej szkole klasy każdego poziomu są w określony sposób uporządkowane (oznaczanie klas literowe, numerowe lub inne). Do zadań ankietera należy identyfikacja wylosowanej klasy przez zestawienie obowiązującego w szkole uporządkowania z wylosowanym numerem.
W procedurze badania kładzie się bardzo duży nacisk na zapewnienie respondentom maksimum poczucia bezpieczeństwa oraz pełnej anonimowości. W Polsce służą temu:
• nieobecność nauczyciela w klasie w trakcie badania,
• reguły postępowania ankietera (np. nie może on chodzić po klasie i zaglądać uczniom w kwestionariusze),
• specjalna procedura zwrotu wypełnionego kwestionariusza, polegająca na oddaniu go przez ucznia w zaklejonej kopercie.
We wszystkich krajach stosowane są koperty do zwrotu ankiet, chociaż w siedmiu krajach są to koperty lub pudełka zbiorcze dla całej klasy [7].
Uczniowie w instrukcji otrzymują zapewnienie o pełnej anonimowości badań zarówno na poziomie indywidualnym, jak i całej szkoły. Oznacza to, że tajemnicą objęte są również wyniki na poziomie szkół. Ta reguła ma charakter uniwersalny, tzn. wynika z ogólnych ustaleń.
W ostatnich edycjach badań, w niektórych krajach podejmowane były próby zbierania danych w postaci cyfrowej z wykorzystaniem internetu. W 2015 roku w czterech krajach (Austria, Holandia, Lichtenstein, Łotwa) badania zrealizowano tą właśnie metodą. Otwartą kwestią pozostaje, czy tak zebrane dane będą porównywalne z danymi zbieranymi tradycyjną techniką wypełniania papierowych kwestionariuszy.
W Polsce jedynie w niektórych szkołach wymagane było uzyskanie zgody rodziców na udział ich dzieci w badaniu. Tak samo jest w siedmiu innych krajach, podczas gdy w dziewięciu krajach zgody rodziców nie wymagano [7]. W Polsce decyzja o przeprowadzeniu badania w szkole pozostaje w gestii dyrektora szkoły i to on decyduje o podjęciu i ewentualnym kształcie procedury konsultowania rodziców czy uzyskiwania od nich zgody.
Każde badanie w klasie szkolnej dokumentowane jest standardowym raportem klasowym, gdzie ankieter zamieszcza dane na temat liczby uczniów uczestniczących i nieuczestniczących w badaniu, czasu trwania badania, atmosfery w klasie oraz stosunku uczniów do badania.
Wskaźniki realizacji próby na poziomie klas szkolnych, a także uczniów są dość silnie zróżnicowane zarówno w czasie, jak i ze względu na kraje. Ich wartości dla poszczególnych krajów zestawiane są w każdym z międzynarodowych raportów. W 2015 roku w Polsce wskaźnik udziału klas szkolnych (94%) był wyższy od średniej ze wszystkich krajów (88%), zaś wskaźnik udziału uczniów z klas objętych badaniem w naszym kraju (83%) okazał się niższy od analogicznej średniej (88%) [8].

Przetwarzanie danych i obliczenia statystyczne

W Polsce ankieterzy po sprawdzeniu kompletności materiałów przekazywali je za pośrednictwem koordynatorów lokalnych do Instytutu Psychiatrii i Neurologii odpowiedzialnego za realizację badania. Ankiety po zarejestrowaniu były poddawane procedurze sprawdzenia w celu identyfikacji nieprawidłowych kwestionariuszy (np. ankiet zawierających obraźliwe uwagi i symbole). Następnie zakładano i weryfikowano zbiór danych.
W latach 1995–2003 kontroli zbiorów danych oraz obliczenia wyników badań dokonywano na poziomie krajów. Wyniki przesyłano do koordynatora w postaci zagregowanej, przy użyciu standardowych tablic. Na ich podstawie opracowywano raporty europejskie. W 2007 roku proces kontroli zbiorów oraz obliczeń statystycznych został scentralizowany. Krajowe zbiory są przekazywane i integrowane w jeden zbiór danych obejmujący wszystkie edycje ESPAD ze wszystkich krajów uczestniczących w programie. W 2011 roku pozyskano także z większości krajów zbiory danych z lat 1995–2003, które uzupełniły zbiór danych z lat późniejszych. Zbiór ten może zostać udostępniony, nie tylko badaczom ESPAD, po złożeniu aplikacji do Komitetu Sterującego. Informacje o regułach udostępniania zbioru oraz procedurze aplikacyjnej można znaleźć na stronie internetowej projektu pod adresem: http://www.espad.org/databases.
W Polsce stosowano procedurę ważenia wyników, aby zrównoważyć efekt włączenia danych z prób wojewódzkich i miejskich do zbioru danych ogólnopolskich. W rezultacie tej procedury próba ogólnopolska ulegała znacznemu zmniejszeniu poprzez przypisanie nadreprezentowanym województwom i miastom wag proporcjonalnych do ich udziału w populacji ogólnopolskiej. W innych krajach także stosowano procedurę ważenia, jednak wyniki ważono do średniej.


Wyniki każdej z edycji ESPAD publikowano w postaci Europejskiego Raportu, w którym prezentowano wyniki z poszczególnych krajów [8–13]. W kolejnych edycjach raportów znajdujemy zawsze nie tylko wyniki dla danego roku, ale także analizy trendów z wykorzystaniem wyników z poprzednich edycji. Raporty europejskie ograniczają się do młodzieży z podstawowej kohorty, tj. uczniów w wieku 15–16 lat. Tylko raz opublikowano raport z badań kohorty opcjonalnej, tj. uczniów w wieku 17–18 lat [14].
Oprócz raportów europejskich w poszczególnych krajach opracowywano raporty krajowe. W Polsce raporty z badań ESPAD publikowane były na stronach internetowych Krajowego Biura ds. Przeciwdziałania Narkomanii lub Państwowej Agencji Rozwiązywania Problemów Alkoholowych. Wyniki publikowane w polskich raportach nieznacznie różnią się od polskich wyników z raportów europejskich. Powodem różnic jest rozbieżność w definicji populacji. W europejskich raportach uwzględniani są jedynie uczniowie urodzeni w danym roku, zaś w polskich raportach znajdujemy wyniki odnoszące się do wszystkich uczniów z danych klas, a więc także drugorocznych oraz tych, którzy wcześniej poszli do szkoły.
Dane ESPAD wykorzystywano w wielu publikacjach w różnych krajach, a ich długą, choć niepełną listę można znaleźć na stronie internetowej ESPAD pod adresem: http://www.espad.org/references-literature. Analizę wyników ESPAD można także znaleźć w publikacjach polskich autorów [16–24].

Ograniczenia porównywalności wyników

Mimo wysiłków zapewnienia pełnej porównywalności wyników badań ESPAD – zarówno między krajami, jak i między poszczególnymi pomiarami w różnych punktach czasowych – napotyka ona pewne ograniczenia. Po zapewnieniu znacznego poziomu standaryzacji metodologii badania, poza kontrolą pozostaje jego kontekst kulturowy, który w niektórych krajach może sprzyjać skrzywieniu wyników, zakłócając porównywalność między państwami. Za sprawą tego kontekstu w krajach o liberalnej polityce narkotykowej, np. w Holandii, może być znacznie łatwiej uczniom przyznać się do używania narkotyków niż w państwach o restrykcyjnej polityce, jak Szwecja czy Polska. Różnice w rozpowszechnieniu doświadczeń z narkotykami szacowane na podstawie badań ankietowych mogą zatem wynikać, przynajmniej po części, z różnic w gotowości do raportowania, a tym samym maskować rzeczywiste różnice.
Porównywalność w czasie zakłócają wielokrotne zmiany kwestionariusza. Wprawdzie kilka podstawowych pytań o używanie substancji nie podlegało zmianom, jednak kilkakrotna zmiana struktury kwestionariusza mogła mieć wpływ na odpowiedzi. Największej zmiany struktury kwestionariusza dokonano w 2007 roku.

Conflict of interest/Konflikt interesów

None declared./Nie występuje.

Financial support/Finansowanie

None declared./Nie zadeklarowano.


The work described in this article has been carried out in accordance with the Code of Ethics of the World Medical Association (Declaration of Helsinki) on medical research involving human subjects, EU Directive (210/63/EU) on protection of animals used for scientific purposes, Uniform Requirements for manuscripts submitted to biomedical journals and the ethical principles defined in the Farmington Consensus of 1997.
Treści przedstawione w pracy są zgodne z zasadami Deklaracji Helsińskiej odnoszącymi się do badań z udziałem ludzi, dyrektywami UE dotyczącymi ochrony zwierząt używanych do celów naukowych, ujednoliconymi wymaganiami dla czasopism biomedycznych oraz z zasadami etycznymi określonymi w Porozumieniu z Farmington w 1997 roku.


1. Zieliński A. Obraz rozpowszechnienia prób z napojami alkoholowymi wśród młodzieży na podstawie badań empirycznych w XX w. In: Zieliński A (ed.). Ewolucja wzorów używania alkoholu wśród dorastającej młodzieży w Polsce w XX wieku. Warszawa: Wydawnictwo Edukacyjne PARPA; 2006.
2. Roberts C, Freeman J, Samdal O, Schnohr CW, de Looze ME, Nic Gabhainn S, et al. The Health Behaviour in School-aged Children (HBSC) study: methodological developments and current tensions. Int J Public Health 2009; 54: S140-50. 1661-8556/09/020S140-11 DOI 10.1007/s00038-009-5405-9, Birkhäuser Verlag, Basel, 2009.
3. Johnston L, Driessen F, Kokkevi A. Surveying Student Drug Misuse: A Six-Country Pilot Study. Strasbourg, France: Council of Europe; 1994.
4. Kraus L, Hibell B. Whence and whither: strengths and future challenges of ESPAD. Nordic Studies on Alcohol and Drugs 2014; 31: 4. http://www.espad.org/content/whence-and-whither-strengths-and-future-challenges-espad.
5. Hibell B. The 2012 ESPAD impact survey. Lisbon: EMCDDA; 2015.
6. Bjarnason T, Morgan M. Guidelines for Sampling Procedures in the 2003 School Survey Project on Alcohol and Other Drugs. Stockholm: Centralforbundet for Alcohol Och Narkotikaupplysning; 2002.
7. Guttormsson U, Leifman H, Kraus L, Arpa S, Molinaro S, Monshouwer K, et al. ESPAD 2015 methodology. EU Publication Office; 2016. http://www.espad.org/sites/espad.org/files/TD0116477ENN_002.pdf.
8. EMCDDA and ESPAD, ESPAD Report 2015 – Results from the European School Survey Project on Alcohol and Other Drugs, EMCDDA–ESPAD joint publications. Luxembourg: Publications Office of the European Union; 2016.
9. Hibell B, Andersson B, Bjarnason T, Kokkevi A, Morgan M, Narusk A. The 1995 ESPAD Report. Alcohol and Other Drug Use Among Students in 26 European Countries. Stockholm: The Swedish Council for Information on Alcohol and Other Drugs; 1997.
10. Hibell B, Andersson B, Ahlström S, Balakieva O, Bjarnason T, Kokkevi A, et al. The 1999 ESPAD Report. Alcohol and Other Drug Use Among Students in 30 European Countries. Stockholm: The Swedish Council for Information on Alcohol and Other Drugs; 2000.
11. Hibell B, Andersson B, Bjarnason T, Ahlström S, Balakieva O, Kokkevi A, et al. The ESPAD Report 2003. Alcohol and Other Drug Use Among Students in 35 European Countries. Stockholm: The Swedish Council for Information on Alcohol and Other Drugs; 2004.
12. Hibell B, Guttormsson U, Ahlström S, Balakieva O, Bjarnason T, Kokkevi A, et al. The 2007 ESPAD Report. Substance Use Among Students in 35 European Countries. Stockholm: The Swedish Council for Information on Alcohol and Other Drugs; 2009.
13. Hibell B, Guttormsson U, Ahlström S, Balakireva O, Bjarnason T, Kokkevi A, et al. The 2011 ESPAD report: substance use among students in 36 European countries. Stockholm: The Swedish Council for Information on Alcohol and Other Drugs; 2012.
14. Andersson B, Hibell B, Beck F, Choquet M, Kokkevi A, Fotiou A, et al. Alcohol and Drug Use Among European 17-18 Year Old Students. Data from the ESPAD Project. Stockholm: Swedish Council for Information on Alcohol and Other Drugs (CAN), The Pompidou Group at the Council of Europe; 2007.
15. Hibell B, Molinaro S, Siciliano V, Kraus L. The ESPAD validity study in four countries in 2013. European Monitoring Centre for Drugs and Drug Addiction. Luxembourg: Publications Office of the European Union; 2016. http://www.espad.org/sites/espad.org/files/ESPAD-Validity-Study.PDF.
16. Nociar A, Sieroslawski J, Csémy L. Substance use among European students: East–West comparison between 1995 and 2011. Cent Eur J Public Health 2016; 24(4): 281-8.
17. Sierosławski J. Młodzież gimnazjalna a alkohol. In: Szymborski J, Zatoński W (eds.). Zdrowie dzieci i młodzieży w wymiarze socjomedycznym. Zdrowie Publiczne Monografie. Vol. II. Warszawa: Wszechnica Polska, Szkoła Wyższa; 2013, p. 79-95.
18. Sierosławski J. Używanie narkotyków przez gimnazjalistów. In: Szymborski J, Zatoński W (eds.). Zdrowie dzieci i młodzieży w wymiarze socjomedycznym. Zdrowie Publiczne Monografie. Vol. II. Warszawa: Wszechnica Polska, Szkoła Wyższa; 2013, p. 96-112.
19. Sierosławski J. Badania szkolne na temat używania substancji psychoaktywnych przez młodzież (ESPAD). In: Zieliński A (ed.). Ewolucja wzorów używania alkoholu wśród dorastającej młodzieży w Polsce w XX wieku. Warszawa: Wydawnictwo Edukacyjne PARPA; 2006.
20. Sierosławski J. Dostępność przetworów konopi a ich używanie. Alkoholizm i Narkomania 2005; 18(4): 65-72.
21. Sierosławski J. Badania szkolne na temat używania substancji psychoaktywnych przez młodzież (ESPAD). Polska młodzież na tle Europy. In: Zieliński A (ed.). Ewolucja wzorów używania alkoholu przez młodzież w Polsce w XX wieku. Warszawa: Wydawnictwo Edukacyjne PARPA; 2005, p. 75-88.
22. Sierosławski J. Używanie alkoholu i narkotyków przez młodzież szkolną. Raport z ogólnopolskich badań ankietowych zrealizowanych w 2003 r. In: Alkohol a zachowania problemowe młodzieży. Opinie i badania. Warszawa: Wydawnictwo Edukacyjne PARPA; 2004, p. 127-208.
23. Sierosławski J, Zieliński A. Europejski Program badań ankietowych w szkołach na temat używania alkoholu i innych substancji psychoaktywnych. In: Alkohol i narkotyki w życiu polskiej młodzieży – dylematy profilaktyki. Warszawa: PARPA; 2002, p. 9-95.
24. Fatyga B, Sierosławski J, Zieliński A, Zieliński P. Alkohol a młode pokolenie Polaków połowy lat dziewięćdziesiątych. Warszawa: Państwowa Agencja Rozwiązywania Problemów Alkoholowych; 1999.
This is an Open Access journal distributed under the terms of the Creative Commons Attribution-NonCommercial-NoDerivs (CC BY-NC-ND) (https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode), allowing third parties to download and share its works but not commercially purposes or to create derivative works.
Quick links
© 2023 Termedia Sp. z o.o.
Developed by Bentus.