]> source.dussan.org Git - archiva.git/blob
5cabece94bf0e50ab5805507bc3e9a199fe99c96
[archiva.git] /
1 package org.apache.archiva.reports.consumers;
2
3 /*
4  * Licensed to the Apache Software Foundation (ASF) under one
5  * or more contributor license agreements.  See the NOTICE file
6  * distributed with this work for additional information
7  * regarding copyright ownership.  The ASF licenses this file
8  * to you under the Apache License, Version 2.0 (the
9  * "License"); you may not use this file except in compliance
10  * with the License.  You may obtain a copy of the License at
11  *
12  *  http://www.apache.org/licenses/LICENSE-2.0
13  *
14  * Unless required by applicable law or agreed to in writing,
15  * software distributed under the License is distributed on an
16  * "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
17  * KIND, either express or implied.  See the License for the
18  * specific language governing permissions and limitations
19  * under the License.
20  */
21
22 import org.apache.archiva.admin.model.beans.ManagedRepository;
23 import org.apache.archiva.checksum.ChecksumAlgorithm;
24 import org.apache.archiva.checksum.ChecksummedFile;
25 import org.apache.archiva.configuration.ArchivaConfiguration;
26 import org.apache.archiva.configuration.ConfigurationNames;
27 import org.apache.archiva.configuration.FileTypes;
28 import org.apache.archiva.consumers.AbstractMonitoredConsumer;
29 import org.apache.archiva.consumers.ConsumerException;
30 import org.apache.archiva.consumers.KnownRepositoryContentConsumer;
31 import org.apache.archiva.metadata.model.ArtifactMetadata;
32 import org.apache.archiva.metadata.repository.MetadataRepository;
33 import org.apache.archiva.metadata.repository.MetadataRepositoryException;
34 import org.apache.archiva.metadata.repository.RepositorySession;
35 import org.apache.archiva.metadata.repository.RepositorySessionFactory;
36 import org.apache.archiva.metadata.repository.storage.RepositoryPathTranslator;
37 import org.apache.archiva.redback.components.registry.Registry;
38 import org.apache.archiva.redback.components.registry.RegistryListener;
39 import org.apache.archiva.metadata.model.facets.RepositoryProblemFacet;
40 import org.apache.commons.collections.CollectionUtils;
41 import org.slf4j.Logger;
42 import org.slf4j.LoggerFactory;
43 import org.springframework.context.annotation.Scope;
44 import org.springframework.stereotype.Service;
45
46 import javax.annotation.PostConstruct;
47 import javax.inject.Inject;
48 import javax.inject.Named;
49 import java.io.File;
50 import java.io.IOException;
51 import java.util.ArrayList;
52 import java.util.Collection;
53 import java.util.Collections;
54 import java.util.Date;
55 import java.util.List;
56
57 /**
58  * Search the artifact repository of known SHA1 Checksums for potential duplicate artifacts.
59  * <p>
60  * TODO: no need for this to be a scanner - we can just query the database / content repository to get a full list
61  */
62 @Service ( "knownRepositoryContentConsumer#duplicate-artifacts" )
63 @Scope ( "prototype" )
64 public class DuplicateArtifactsConsumer
65     extends AbstractMonitoredConsumer
66     implements KnownRepositoryContentConsumer, RegistryListener
67 {
68     private Logger log = LoggerFactory.getLogger( DuplicateArtifactsConsumer.class );
69
70     private String id = "duplicate-artifacts";
71
72     private String description = "Check for Duplicate Artifacts via SHA1 Checksums";
73
74     @Inject
75     private ArchivaConfiguration configuration;
76
77     @Inject
78     private FileTypes filetypes;
79
80     /**
81      * FIXME: this could be multiple implementations and needs to be configured.
82      */
83     @Inject
84     private RepositorySessionFactory repositorySessionFactory;
85
86     private List<String> includes = new ArrayList<>();
87
88     private File repositoryDir;
89
90     private String repoId;
91
92     /**
93      * FIXME: needs to be selected based on the repository in question
94      */
95     @Inject
96     @Named ( value = "repositoryPathTranslator#maven2" )
97     private RepositoryPathTranslator pathTranslator;
98
99     private RepositorySession repositorySession;
100
101     @Override
102     public String getId()
103     {
104         return id;
105     }
106
107     @Override
108     public String getDescription()
109     {
110         return description;
111     }
112
113     @Override
114     public boolean isPermanent()
115     {
116         return false;
117     }
118
119     @Override
120     public List<String> getIncludes()
121     {
122         return includes;
123     }
124
125     @Override
126     public List<String> getExcludes()
127     {
128         return Collections.emptyList();
129     }
130
131     @Override
132     public void beginScan( ManagedRepository repo, Date whenGathered )
133         throws ConsumerException
134     {
135         repoId = repo.getId();
136         this.repositoryDir = new File( repo.getLocation() );
137         repositorySession = repositorySessionFactory.createSession();
138     }
139
140     @Override
141     public void beginScan( ManagedRepository repo, Date whenGathered, boolean executeOnEntireRepo )
142         throws ConsumerException
143     {
144         beginScan( repo, whenGathered );
145     }
146
147     @Override
148     public void processFile( String path )
149         throws ConsumerException
150     {
151         File artifactFile = new File( this.repositoryDir, path );
152
153         // TODO: would be quicker to somehow make sure it ran after the update database consumer, or as a part of that
154         //  perhaps could use an artifact context that is retained for all consumers? First in can set the SHA-1
155         //  alternatively this could come straight from the storage resolver, which could populate the artifact metadata
156         //  in the later parse call with the desired checksum and use that
157         String checksumSha1;
158         ChecksummedFile checksummedFile = new ChecksummedFile( artifactFile );
159         try
160         {
161             checksumSha1 = checksummedFile.calculateChecksum( ChecksumAlgorithm.SHA1 );
162         }
163         catch ( IOException e )
164         {
165             throw new ConsumerException( e.getMessage(), e );
166         }
167
168         MetadataRepository metadataRepository = repositorySession.getRepository();
169
170         Collection<ArtifactMetadata> results;
171         try
172         {
173             results = metadataRepository.getArtifactsByChecksum( repoId, checksumSha1 );
174         }
175         catch ( MetadataRepositoryException e )
176         {
177             repositorySession.close();
178             throw new ConsumerException( e.getMessage(), e );
179         }
180
181         if ( CollectionUtils.isNotEmpty( results ) )
182         {
183             ArtifactMetadata originalArtifact;
184             try
185             {
186                 originalArtifact = pathTranslator.getArtifactForPath( repoId, path );
187             }
188             catch ( Exception e )
189             {
190                 log.warn( "Not reporting problem for invalid artifact in checksum check: {}", e.getMessage() );
191                 return;
192             }
193
194             for ( ArtifactMetadata dupArtifact : results )
195             {
196                 String id = path.substring( path.lastIndexOf( '/' ) + 1 );
197                 if ( dupArtifact.getId().equals( id ) && dupArtifact.getNamespace().equals(
198                     originalArtifact.getNamespace() ) && dupArtifact.getProject().equals(
199                     originalArtifact.getProject() ) && dupArtifact.getVersion().equals(
200                     originalArtifact.getVersion() ) )
201                 {
202                     // Skip reference to itself.
203
204                     log.debug( "Not counting duplicate for artifact {} for path {}", dupArtifact, path );
205
206                     continue;
207                 }
208
209                 RepositoryProblemFacet problem = new RepositoryProblemFacet();
210                 problem.setRepositoryId( repoId );
211                 problem.setNamespace( originalArtifact.getNamespace() );
212                 problem.setProject( originalArtifact.getProject() );
213                 problem.setVersion( originalArtifact.getVersion() );
214                 problem.setId( id );
215                 // FIXME: need to get the right storage resolver for the repository the dupe artifact is in, it might be
216                 //       a different type
217                 // FIXME: we need the project version here, not the artifact version
218                 problem.setMessage( "Duplicate Artifact Detected: " + path + " <--> " + pathTranslator.toPath(
219                     dupArtifact.getNamespace(), dupArtifact.getProject(), dupArtifact.getVersion(),
220                     dupArtifact.getId() ) );
221                 problem.setProblem( "duplicate-artifact" );
222
223                 try
224                 {
225                     metadataRepository.addMetadataFacet( repoId, problem );
226                 }
227                 catch ( MetadataRepositoryException e )
228                 {
229                     throw new ConsumerException( e.getMessage(), e );
230                 }
231             }
232         }
233     }
234
235     @Override
236     public void processFile( String path, boolean executeOnEntireRepo )
237         throws ConsumerException
238     {
239         processFile( path );
240     }
241
242     @Override
243     public void completeScan()
244     {
245         repositorySession.close();
246     }
247
248     @Override
249     public void completeScan( boolean executeOnEntireRepo )
250     {
251         completeScan();
252     }
253
254     @Override
255     public void afterConfigurationChange( Registry registry, String propertyName, Object propertyValue )
256     {
257         if ( ConfigurationNames.isRepositoryScanning( propertyName ) )
258         {
259             initIncludes();
260         }
261     }
262
263     @Override
264     public void beforeConfigurationChange( Registry registry, String propertyName, Object propertyValue )
265     {
266         /* do nothing */
267     }
268
269     private void initIncludes()
270     {
271         includes.clear();
272
273         includes.addAll( filetypes.getFileTypePatterns( FileTypes.ARTIFACTS ) );
274     }
275
276     @PostConstruct
277     public void initialize()
278     {
279         initIncludes();
280         configuration.addChangeListener( this );
281     }
282 }